TyfloPrzegląd Odcinek nr 274 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
Dzień dobry, dzień dobry. 274. audycja Tyflo Przeglądu.
Dzisiaj jesteśmy w składzie Paulina Gajoch, Piotrek Machacz,
Michał Dziwisz i oczywiście Tomek Bilecki.
Dobry wieczór.
I Paweł Masarczyk jeszcze jest, o którym zapomniałem,
ale jak najbardziej Paweł również jest.
Ale Paweł dziś będzie miał sporo do powiedzenia.
Tak, to prawda.
Natomiast zanim Paweł, to najpierw Michale.
O czym dzisiaj będzie Tyflo Przegląd?
W tym tygodniu w Tyflo Przeglądzie.
Dziesiąty odcinek EBU in Action.
Nowości w grach.
Krótkofalarski radiotelefon ze smartfona?
To możliwe!
Nowa wersja TW Blue ze wsparciem dla filtrowania i innymi nowościami.
EasyMark od teraz nie tylko na Windowsa.
Bardziej inteligentne informowanie o wcięciach w ORCE.
Nowości z konferencji CSUN.
Nowości w dostępności Abletona.
Cobalt Tools, dostępne i otwarte narzędzie do pobierania wideo.
Dostępne kursy programowania.
Winlater, emulator Windowsa na urządzenia z Androidem.
Kącik newsów sztucznie inteligentnych.
Dwunasta wersja McWhispera dostaje automatyczną identyfikację mówców.
Słuchawki Huawei Free Arc trafiły do sprzedaży.
Google powoli wyłącza starego asystenta na rzecz Gemini.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600,
powtarzam 663-883-600 oraz zapraszamy Państwa do wyrażenia komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net
Już w ogóle do nas piszecie, ale zanim odczytamy, czy odsłuchamy w zasadzie wiadomości od Was, to może najpierw zacznijmy jeszcze od newsa z poprzedniej audycji,
Tak, i to myślę, że będzie informacja, która ucieszy tych, którzy mają swoją działalność przedsiębiorczą, albo zastanawiają się nad tym.
To jest nawiązanie do wiadomości z poprzedniego tygodnia, w której Paweł mówił o tym, że prawdopodobnie niebawem w Polsce pojawi się na iPhone’ach funkcja Tap to Pay,
Po prostu pozwala nam wykorzystać nasz iPhone jako terminal płatniczy.
Dla nas to jest duży plus z dwóch powodów.
Po pierwsze, to jest po prostu bardzo wygodne dla nas,
bo nie musimy mieć osobnego terminala,
który często może być dla nas mniej dostępny,
bo teraz coraz częściej takie terminale mają np. jakieś ekrany dotykowe.
Ale też, jeśli byśmy kupowali coś od sprzedawcy,
który wykorzystuje iPhone’a w taki sposób lub kupowałaby u nas jakaś inna osoba niewidoma,
no to możemy też w takiej sytuacji skorzystać z funkcji udogodnień, funkcji
dostępności, które pozwolą nam w dostępny sposób wprowadzić na ekranie tego iPhone’a
kod PIN. Także to jest jedna z bardziej dostępnych możliwości na stworzenie sobie
No i oficjalnie Apple właśnie dzisiaj podało informację, że funkcje Tap to Pay zostały rozszerzone o kilka krajów Unii Europejskiej, nie tylko nasz.
Natomiast skupiając się tutaj na Polsce, no to na początek współpraca została nawiązana z kilkoma firmami, które dostarczają właśnie takie funkcje płatności.
płatności. Jest to firma ADN, jest to e-service, jest to PKO Bank Polski, jest to MOLIE, jest to STRIPE,
jest to jak to się czyta, jest to SUMUP, chyba REWOLUT też, prawda?
Tak, o tym za chwilkę jest VIVA i WORLDLINE, a w niedalekiej przyszłości właśnie będzie
jeszcze wchodzić PlanetPay oraz Revolut i PEP.
Także trochę tych dostawców jest, czasem pewnie ta lista będzie się jeszcze
rozszerzać. Oczywiście, żeby tę funkcję aktywować, musimy mieć podpisaną umowę.
Z jednym z tych dostawców musimy mieć odpowiednią aplikację zainstalowaną i to
wszystko skonfigurować. No ale na pewno jeśli ktoś będzie tym zainteresowany, no
to u swojego dostawcy pewnie odpowiednie instrukcje w tej sprawie
Także myślę, że jak najbardziej dla nas istotna informacja, zarówno dla tych, którzy mają swoje działalności i szukają dostępnego sposobu na pobieranie płatności.
Oczywiście tutaj wtedy możemy pobierać płatności wyłącznie zbliżeniowo, tak, no bo nasz iPhone nie ma takiego terminala, który nam sczyta ten magnetyczny pasek na karcie.
No ale też myślę, że to jest bardzo ważna informacja dla tych, którzy będą coś kupować.
Może być prawdopodobne, że kiedyś spotkamy się z terminalem,
w którym po prostu jest iPhone, na którym możemy w dostępny sposób
kod PIN na przykład sobie wprowadzić.
I przechodzimy już do aktualnych informacji.
Za chwilkę odtworzymy wiadomości od słuchaczy,
ale najpierw jeszcze news od,
najpierw od Pawła,
bo dziesiąty odcinek Eboon Inaction się ukazał.
I co w tym dziesiątym odcinku podcasa Eboon Inaction jest?
Europejska Unia Niewidomych od nowego roku się rozkręca, można powiedzieć.
I weszli w ten rok organizując w Parlamencie Europejskim w Brukseli
przyjęcie koktajlowe, którego celem było takie nawiązanie pierwszych kontaktów
między właśnie Unią Niewidomych a Parlamentem Europejskim
nowym rozdaniem europoselskim. Także pojawiły się nowe twarze w parlamencie.
Trzeba było jakoś te kontakty ocieplić i nawiązać, żeby te działania i kampanie
i B.U. mogły się jakkolwiek rozwijać. No i zasponsorowała to wydarzenie,
czyli patronatem objęła je europosłanka Leigh Anderson z Finlandii,
która teraz dołączyła do Parlamentu Europejskiego. Wcześniej była
Mała w swoim kraju ministrą edukacji i teraz jest przewodniczy Komisji
Zatrudnienia i Spraw Społecznych, jeżeli dobrze rozumiem.
No i podczas tego przyjęcia dowiedzieliśmy się na przykład, że jako, że
strategia na rzecz osób z niepełnosprawnością dobiega już do połowy,
bo to było na lata 2021-2030 rozpisane, no to czas ją podsumować i czas
Więc muszę prowadzić takie refleksje, co będzie się działo w tych następnych pięciu latach jej trwania.
No i zapowiedziane były flagowe inicjatywy.
Na razie wiemy tylko, że będą takie inicjatywy.
Nie wiadomo, jakie to będą inicjatywy.
Więc dużo było mowy o tym, że nie można tylko cały czas zwiększać świadomości.
Trzeba też wziąć się za konkretne działania.
No więc zobaczymy, co przyniosą te najbliższe lata.
Na razie wielu rzeczy można by sobie życzyć.
I tutaj też przedstawiciele Europejskiej Unii Niewidomych, z którymi przeprowadzano wywiady w tym podcaście, trochę takich swoich życzeń wyrazili.
Na przykład jednym z takich problemów, które na pewno się pojawią w najbliższej przyszłości w działaniach kampanijnych, powiedzmy, promujących różne sprawy z ramienia IBU,
To będzie dostępność urządzeń gospodarstwa domowego, czyli może byłaby szansa rozszerzyć zakres tej Europejskiej Ustawy Dostępności, która w tym roku wchodzi o urządzenia AGD.
Tutaj też kwestia sygnalizacji dźwiękowej przy elektrycznych samochodach, aby tych regulacji nie osłabiano, a jednak je wzmacniano.
Też gdzieś leży na sercu kwestia jakichś dotykowych czy brelowskich oznaczeń różnych produktów.
To są takie obszary, gdzie by sobie życzono jakichś tutaj usprawnień.
No, co z tego wyjdzie, zobaczymy.
No, do wysłuchania całości podcastu lub do przeczytania transkryptu, jeżeli tak Wam łatwiej zachęcam.
No, czegoś można się zawsze dowiedzieć, co tam na poziomie europejskim się dzieje.
To prawda.
To teraz obiecane, już zapowiadane wiadomości od Was.
Z wiadomości głosowych mamy od Sylwestra.
Cześć chłopcy, witam Was.
Bo już się zaczyna piosenka, a ja mam do Michała taką wiadomość.
Po prostu dobrą informację przekazał i dobrą uwagę przekazał.
Na pierwsze, że ja do odbiornika podłączam słuchawki.
Jak chcę nagrać głosówkę na Whatsappie, to ja podłączam słuchawki, żeby nie było słychać w tle, jak ja mówię.
Druga, dobrą informację przekazał Michał o linijce, bo moja linijka coś takiego miała,
W drugiej komórce punkt szósty słabo wychodził i w trzydziestej drugiej komórce punkt drugi, ten pin, też słabo wychodził.
I tak jak Michał powiedział, trzeba było shift, prawy shift, okrągły ten guzik nacisnąć i przycisk power ten przytrzymać, zrestartować i teraz dobrze działa.
A co do dżeszło, to tylko z tego telefonu, co teraz mówię, OPPO A17 działa, skrót zrobiłem i działa.
A na Samsungu jakieś tam zastrzeżenia ma bezpieczeństwa aplikacji ustawienia.
Też włączałem i okazuje się, że jest wyłączone. W każdym punkcie włączałem te dżeszły.
Okazuje się, że też wyłącza, po prostu z powodu ustawień bezpieczeństwa.
Jakiś tam program bezpieczeństwa blokuje działanie.
Rzeszło. Także sam Brzunku, jeżeli chodzi o Samsunga, to już jest nieskuteczne.
Nie działa Rzeszło. A jeżeli chodzi o ten telefon, z którego teraz mówię do Was,
Oppo A17, no to w tym telefonie spokojnie działa Rzeszło.
Telefonu Rzeszło tak na co dzień…
Telefonu Oppo A17 nie użyłem tak na co dzień.
Tylko raz w tygodniu podłączony jest do routera i tak do was mówię.
A na co dzień używam Samsunga Galaxy.
To znaczy jeżeli chodzi o Joshua to z tego co ja wiem to na Samsungu da się go uruchomić.
Tylko tam jest to nieco bardziej skomplikowane.
To też w audycji z Arkiem Świętnickim o tym mówiliśmy.
I też mam takie informacje, że tam trzeba sporo tych uprawnień tego wszystkiego powłączać i niektóre to nie są wcale oczywiste miejsca. Nie wiem, czy Ty Tomku coś może więcej dodasz do tego?
Szczerze mówiąc nie, bo nie używam Samsunga.
Właśnie, ale jeżeli ktoś tak na świeżo np. jest po instalacji Gesso i pamięta, co tam musiał zrobić w urządzeniach Samsunga, to może dać nam znać, to bardzo chętnie taką informację też opublikujemy,
Gdzie tam wejść? Co zrobić? Jakie uprawnienia ponadawać?
Bo tak, bo to jest rzeczywiście prawda.
Samsung ma chyba jeszcze po prostu więcej, czy to ze względu na nowego Androida,
czy ze względu też na jakieś swoje jeszcze dodatkowe zabezpieczenia,
no tych różnych alertów, bezpieczników, coraz więcej.
I trzeba to powyłączać, żeby po prostu Joshua mógł działać.
To prawda. I jeszcze mam wiadomość tekstową od użytkownika podpisującego się nikim Exterminator.
Pawle, czy pokażesz jak działa Kokoro TTS i czy testowałeś?
No i nie słychać Pawła nadal.
Tak.
To może nowości w Abletonie, bo tych nowości chyba coś jest.
Mamy dwie takie nowości. Pierwsza dotyczy właściwie samego Abletona,
natomiast druga dotyczy wtyczek do Abletona tworzonych przez społeczność.
Zaczynając od samego Abletona, w publicznej becie pojawiła się następna,
no może nieduża wersja, bo to cały czas jest wersja dwunasta,
natomiast kolejna taka duża aktualizacja z tej serii dwunastek.
Mianowicie jest to wersja 12.2,
Która przynosi całkiem sporo, jeśli chodzi o samą aplikację, to na przykład został dodany do niej wtyczka czy właściwie urządzenie, jak to Ableton nazywa, autofiltra.
Autofiltra została rozbudowana o nowe brzmienia.
Mamy teraz filtry, które mają emulować jakieś stare konsole, taki bitcrusher tak zwany, mają symulować krtań ludzką.
Taki filtr głoskowy, filtr morfujący się, mamy kilka pasy, które nachodzą na siebie też takie specyficzne dźwięki.
To daje… mamy lepszą kontrolę nad LFO, nad oscylatorami, które tam mogą w czasie rzeczywistym te parametry zmieniać.
Więc generalnie to zostało rozbudowane. Inne syntezatory mogą odgrywać więcej dźwięków.
Jednocześnie zostały też dodane nowe polecenia, które nam pozwalają
wykonać tzw. bounce, czyli jakby zamrozić ścieżkę do pliku audio,
a później my z tym plikiem audio możemy coś sobie zrobić, nie wiem, pociąć go,
odwrócić, dodać jakieś inne efekty, po prostu pracować z nim jako z dźwiękiem,
a nie np. z danymi mili, i to możemy jednym skrótem sobie teraz wykonać.
Ale jeśli chodzi o dostępność, mamy jedną zmianę, ale dużą.
Mianowicie, kiedy wersja poprzednia, czyli 12.1, się ujawniała,
no to na początku mieliśmy taką informację, że miała w niej się pojawić
dostępność automatyzacji. Automatyzacja to funkcja, którą ma praktycznie każdy
taki rozbudowany program do tworzenia muzyki, do pracy z dźwiękiem,
która pozwala nam w czasie odgrywania naszego projektu zmieniać w ciągu trwania czasu
jakiegoś… jakiegoś występu czasu jakiś parametr. Więc na przykład jeśli w jakiejś piosence
słyszymy, że nie wiem, piosenka zaczyna się tak, że ten dźwięk jest taki przytłumiony,
mamy jakiś… jakiś low-pass nałożony i ten dźwięk stopniowo się staje taki coraz jaśniejszy.
Prawdopodobnie ktoś to właśnie zautomatyzował.
Jakieś inne zmiany w głośności, w efektach stereo,
jak nam coś przeskakuje z lewego na prawy kanał.
To jest wszystko automatyzacja, więc dosyć istotna kwestia,
której wcześniej zrobić nie mogliśmy po niejwidomemu.
Mogliśmy sobie coś nagrać, np. ruszając pokrętłami na naszym kontrolerze
i po prostu sobie tak to otworzyć.
Natomiast gdybyśmy chcieli później coś pozmieniać, nie dało się.
No teraz już się da.
W tej pierwszej wersji to miało być dostępne.
Ta funkcja została tymczasowo wycofana, ukryta pod flagą, która nie była nigdzie udokumentowana.
Natomiast w tej wersji 12.2 ona już jest oficjalnie dostępna.
Będzie zresztą link, gdzie możecie sobie całą listę zmian przeczytać.
I tam mamy też rozpisane wszystkie skróty klawiszowe, które pozwalają nam z tą automatyzacją działać.
Jak ustawić się na odpowiedniej osi, wybrać parametr,
który chcemy tak automatyzować i później mamy rozpisane też jakich skrótów używamy,
żeby dodawać nowe punkty i zmieniać ich wartości.
Generalnie to wszystko działa analogicznie do przemieszczania innych markerów w aplikacji,
czyli generalnie operujemy głównie klawiszem Enter,
po prostu chodzimy sobie z czałką lewo-prawo po naszej osi czasu,
naciskamy Enter i wtedy nam się wstawia punkt w danym miejscu.
Możemy wtedy zmienić jego wartość.
Później Escape’em wychodzimy z tego trybu edycji,
bo jeśli tego nie zrobimy, to szałkami lewo-prawo go przenosimy.
I też mamy do dyspozycji skrót,
bodajże na Windowsie jest to Ctrl, lewo-prawo na Macu jest to Command.
Jeśli nie, to będzie Option i Alt,
które pozwalają nam przejść z jednego punktu do drugiego.
Jeśli mamy już kilka punktów zdefiniowanych
i chcemy znaleźć jakiś punkt, żeby coś z nim zrobić,
no to w ten sposób możemy takie zmiany dokonać.
Na ten moment jest to publiczna beta,
więc musimy sobie ją ściągnąć ręcznie.
Właściwie to wygląda tak, że musimy, jeśli mamy Abletona,
wypełnić odpowiedni formularz na stronie producenta,
że chcemy dołączyć do tego programu.
I po kilku minutach uzyskamy do niego dostęp
i wtedy możemy tą aktualizację ściągnąć.
A w przeciwnym wypadku, no to przypuszczam, że za kilka tygodni, może za miesiąc, a może szybciej, ta wersja 12.2 po prostu pojawi się jako wersja stabilna, no i w tym momencie już nie będziemy musieli nic robić, ta automatyzacja i te inne nowe funkcje po prostu będą dla nas dostępne.
To jest pierwsza nowość, a druga nowość jest związana z wtyczkami.
Konkretnie mamy nową wtyczkę do Abletona,
nowe urządzenie stworzone w środowisku Max4Live.
Max4Live to takie środowisko, które pozwala programistom
w łatwy sposób Abletona oskryptowywać.
Jeśli ktoś korzysta z Reapera, to znacie takie wtyczki w formacie JS,
to są też takie skrypty, które są głównie pisane pod Reapera,
no to to jest Abletonowy odpowiednik tych skryptów,
Tylko chyba nawet bardziej rozbudowany tak mi się wydaje.
Chyba tak. Chyba pozwala na więcej.
Bo to jest chyba… kiedyś był osobny produkt, nie wiem czy teraz jest, Max MSP.
I to chyba jest to samo. I z tego co pamiętam, to jeden z profesorów,
znaczy nauczycieli, profesorów na studium w Krakowie, od dźwięku,
to przy pomocy właśnie tego Max MSP
zrobił program do zdawania testów przez osoby niewidome,
który miał normalnie pytania, odpowiedzi na BCD,
zliczał oto punkty itd., itd.
Tak, bo tam po pierwsze można to graficznie tworzyć,
ale tam też można chyba w Lua, jeśli się nie mylę, programować,
Więc taki popularny język programowania.
Wracając do tej wtyczki.
Wtyczka nazywa się FLUFS i jest dostępnym miernikiem audio.
Natomiast nie do końca, bo w sumie ma nawet więcej funkcji niż tylko miernik.
No bo tak, po pierwsze może pracować albo właśnie w trybie, w czasie rzeczywistym.
Po prostu możemy poprosić, żeby nam podał tak naprawdę wszystkie wartości.
Właśnie wartości LUFS, wszystkie czyli zintegrowaną, krótkotrwałą i tak dalej.
Te wszystkie wartości mamy dostępne. Mamy taki typowy true peak, tak zwany w decibelach.
Też możemy sobie to sprawdzić. Mamy skróty klawiszowe, które nam pozwalają to przeczytać
w każdym momencie i to jest bardzo fajne. No Reaper ma coś takiego w osarze wbudowane
i on czegoś takiego do tej pory nie miał. A to nam się może przeczytać na przykład
W sytuacji, gdybyśmy coś sobie miksowali, dostajemy jakieś parametry, ale możemy jednym klawiszem przeczytać poziom głośności czy to całego projektu, tak?
Generalnie mierniki poziomów sygnału to jest podstawowa rzecz, jeżeli chcielibyśmy robić coś bardziej niż amatorską z muzyką.
Nawet przy amatorskim tworzeniu lepiej to mieć niż nie mieć, bo tak naprawdę to są takie narzędzia, na których często się opiera różne kursy i dobrze jest mieć to dostępne.
To bardzo cieszy, że coś takiego jest.
To jest bezpłatne czy trzeba kupić?
To jest na zasadzie płacić ile chcesz i możesz też nic nie zapłacić.
Także tak, można powiedzieć, że to jest darmowe, ale autor też przyjmuje dotację.
No bo domyślnie Ableton tam po prostu ma na każdej ścieżce gdzieś w panelu miksera
jest pokazywany maksymalna wartość, jaką…
dźwięk na tej ścieżce osiągnął tam jest przycisk, żeby to zresetować.
Natomiast nie da się tego wygodnie przeczytać szybko czytnikiem ekranu,
a tutaj dzięki tej wtyczce to możemy zrobić.
Ponadto, oprócz tego trybu w czasie rzeczywistym, możemy też do niej załadować
Dla nas jest to, że właśnie to jest wszystko dostępne.
Mamy te skróty klawiszowe, które są dodatkowo globalne i to jest bardzo fajna sprawa.
I deweloper tej wtyczki też zadeklarował się, że od tego momentu będzie się starał,
żeby wszystkie jego przyszłe wtyczki też były dostępne,
ale też udostępnił innym deweloperom biblioteki i funkcje, które on napisał,
dzięki którym ta wtyczka mówi do nas przez czytniki ekranu.
Tutaj zarówno jest wspomniany voice over na Macu, jak i NVDA na Windowsie, nie wiem czy z ZDSR-em to też zadziała, no bo generalnie Ableton akurat na Macu używam i tam mogę potwierdzić, że to działa.
Przepuszczam, że z NVDA to zadziałać też powinno.
No i gdyby ktoś chciał udostępnić jakąś inną wtyczkę właśnie napisaną w środowisku Macs, może będziecie chcieli napisać do developerów, zwracając się z prośbą, żeby coś udostępnili nam.
No to mamy już co im podlinkować, żeby tą pracę ułatwić.
Także ta wtyczka jest moim zdaniem istotna z kilku kwestii.
Będzie link do filmu, który ją demonstruje na YouTubie autora.
No i w opisie tego filmu znajdziecie link, który pozwoli Wam tą wtyczkę pobrać.
I tak jak wspominałem, na tej stronie możemy albo po prostu ją sobie pobrać za darmo,
lub wpłacić praktycznie dowolną kwotę,
Jak gdybyśmy chcieli autora tej wtyczki wesprzeć.
Tymczasem mamy telefon, więc proponuję, żebyśmy teraz odebrali połączenie od naszego słuchacza.
Przeglądowitamy.
Witam, Sławek z tej strony.
Cześć Sławku, słuchamy.
Ja tutaj zadzwoniłem z odpowiedzią właściwej dla Sylwestra a propos Giesiuło,
bo rzeczywiście tam w tych naszych Androidach jest…
to musiałby on wejść na telefonie w aplikacje,
czy w ogóle w ustawienia,
tam w zarządzania aplikacjami, czy w aplikacje,
nie wiem, jak to tam, w jakim telefonie,
w listę tych aplikacji tam
i tam najechać sobie na to gzieszło,
w to kliknąć
i wtedy to musiałby sobie znaleźć coś,
którego tam jest chyba więcej opcji albo więcej,
I wtedy się powinno wyświetlić Unlock Restricted, coś takiego.
I jak to się kliknie, to wtedy się zdejmuje ta blokada.
Bo ja u siebie miałem tak samo na Infinicie, tak samo miałem na Samsungu,
jak są APK pobierane właśnie czy z GitHub,
czy jak z Accessible Android Com, na przykład, to wtedy…
Nie ma tego problemu, gdy jest podbierane z Google Play.
Ale wiadomo, gzieszyło nie ma w Google Play.
I wtedy jak są te APK, tak samo kiedyś Prudence’a miałem z APK
i tak samo musiałem zrobić to.
Da się oczywiście zrobić, będzie to działało w porządku,
tylko trzeba właśnie wejść w te aplikacje,
tam w ustawieniu tych aplikacji, listę tych aplikacji,
w ustawienia w listę aplikacji w Jishuo i kliknąć w to Jishuo.
Bo tam jest odinstaluj, tam jest zatrzymaj i tylko, że nic nie odinstalować,
tylko tam jest więcej opcji albo więcej, nie pamiętam.
I tam chyba jest to unlock restricted i wtedy trzeba to też kliknąć
i coś tam powie, już nie pamiętam kto, komunikat powie,
to będzie oznaczało, że już to zdjęło tą blokadę.
I będzie można tego dzisiejszego włączyć, w dostępności, tam w ustawieniach dostępności go włączyć.
Będzie można już te wszystkie powiadomienia sobie, bo już można część powiadomień tam porobić już zanim to się zdejmie.
Ale są, jest jakieś tam chyba jedno czy dwa powiadomienia, które muszą po prostu być włączone dopiero po zdjęciu tej blokady.
O, no to bardzo fajnie Sławku, że się tą wiedzą podzieliłeś tu z nami.
Myślę, że nie jednej osobie się to może przydać.
Dokładnie, dokładnie. Nie wiem, jak jest w starszych Androidach, bo w starszych Androidach chyba nie było takiego problemu, ale ja mam Androida 13 na tym swoim Infinixie.
Na Samsungu miałem Androida 10, to chyba nie było takiego problemu, ale na 13 już jest.
I to od razu jak się instaluje gdzie szło, to od razu jak się przez ten kreator konfiguracji przechodzi, to od razu jest informacja, że właśnie w Androidzie, nie pamiętam w którym, tam 13 na pewno, czy wcześniejszych też, nie pamiętam, że właśnie jest taka blokada, że trzeba to zdjąć.
Okej. No to bardzo ci dziękujemy jeszcze raz za te informacje. Czy coś jeszcze chciałbyś dodać?
To znaczy, ja mam pytanie, a prawda takiej wtyczki do NBDI, bo jest…
A przepraszam, mogę jeszcze przerwać?
Tak.
Zanim zmienisz temat, chciałabym doszczegółowić tę listę, bo na przykład u mnie na telefonie
jeszcze zanim się włączy w tym ustawieniu aplikacji więcej opcji i zezwól na ten dostęp taki bez blokady,
to najpierw trzeba spróbować włączyć to issue w ułatwieniach dostępu.
I dopiero wtedy się pokazuje ta opcja.
Więc to też warto wziąć pod uwagę, jeżeli tej opcji nie będzie od razu.
A, rzeczywiście zapomniałem. Dziękuję, bo ja zapomniałem.
Ja też próbowałem… Tak, bo na początku może tej opcji faktycznie nie być.
O, ja to pominąłem. Dzięki właśnie za tego.
Bo ja rzeczywiście pominąłem, że tak może być.
Jak się gdzieś chce włączyć i wtedy się właśnie wyświetla to, że jest ta blokada
i dopiero trzeba przejść do tych aplikacji i to wtedy wyłączyć,
Bo jak ja instalowałem, to też nie było tej opcji, tak.
Okej. A jakie, Sławku, masz pytanie?
Ja miałem pytanie a propos wtyczek do NVIDIA.
Jest taka wtyczka BASIC YOUTUBE DOWNLOAD.
Chyba coś takiego.
I jeszcze jest CONVERTER AUDIO VIDEO.
I jeszcze jest Basic YouTube Download.
Ja z tego bawałem korzystać i to mi w ogóle nie chciało działać.
Działało mi to konwerter audio-video właśnie,
co można NVIDIA Y pobrać w formie MP3,
albo NVIDIA Shift Y w MP4.
No możliwe, że… Nie wiem czy mnie teraz już słychać.
Słychać cię, panowie.
Tak, tak, tak, słychać.
Ja myślę, że tam po prostu w którejś z tych wtyczek jest niezaktualizowana biblioteka,
na której to bazuje i po prostu już albo się autor przestał interesować dodatkiem
i nie zaktualizował tych komponentów, przez co to pobieranie już nie działa,
no albo z jakichś innych powodów.
Aha, no to właśnie o tym właśnie głównie chodziło.
A jakaś tam taka wtyczka, ale to chyba nie ma takiej wtyczki do tych różnych…
Bo tam jest manager audio, ale też jest wtyczka…
Aha, to już nie, to było chyba wszystko, bo…
No to było wszystko, na którym dziękuję.
Dobrze, to dziękujemy ci bardzo Sławku za telefon
i dzięki za te informacje na temat.
Dziękuję Paulinie właśnie też za to uściślenie,
Uściślenie, bo rzeczywiście o tym zapomniałem, a to mogłoby być…
To jest, uważam, bardzo istotna informacja. Dokładnie.
Okej.
Miło mi, że mogłam pomóc. Miłego wieczoru.
Tak jest. Do usłyszenia.
Dziękuję. Do usłyszenia.
Natomiast, Pawle, jak z tym kokoro?
Było pytanie. Jeszcze nie testowałem. Planuję, ale jeszcze nie testowałem.
Przepraszam najmocniej. Dostam raport, jak tylko będę coś więcej wiedział.
Dobra, mam jeszcze wiadomość od Sylwestra, wiadomość głosową.
Ale ja mam Android 14 w Samsungu Galaxy.
Ja mam Samsung Galaxy S21 FE.
I niestety, właśnie muszę powiedzieć, że nie da się tego odblokować.
Próbowałem odblokować i ta blokada nie chce się zdjąć wcale.
Bo ja to weszłem w te funkcje aplikacji i ustawienia i wcisnąłem w tego drzeszło i niestety się nie udało.
…i że ona jest sprzed tego mojego wyjaśnienia, że najpierw trzeba spróbować ułatwienia ich dostępu, potem się cofnąć do aplikacji i potem sam z ułatwień dostępu.
Dobry wieczór.
No to pierwsze jest takie pytanie.
A propos pytanie, które zadał mi kiedyś Maciek z Klanu.
Co się stało? O co chodzi?
Zawsze używam Google Translatora do tłumaczenia,
Czy to z angielskiego na polski, czy to z chińskiego na polski.
Zawsze używam i było w porządku.
A od jakiegoś czasu czytam ZDSR, czytam poprzez dodatek do NVIDIA
pana Jannika Plasiarta. Zresztą ta wtyczka, ona już nie jest
zaktualizowana od najnowszego NVIDIA, ale działa spokojnie i tak,
jak sobie tam zaznaczymy, że chcemy tego używać.
Nie wiem co się stało, ale tłumaczenie z angielskiego na polski, jak wczoraj sobie chciałem odpalić grę Words i chciałem po prostu na grze sprawdzić.
Kali pić, kali jeść, kali mieć.
Tak, to tłumaczenie jakoś tak… jakoś ten tłumacz troszeczkę taki się stał mniej mądry.
Troszeczkę. Dziesięć lat temu było lepiej niż teraz.
Naprawdę?
Potwierdzam.
Czyli Google pewnie też grzebie w modelach. Po cichu.
No to wygląda.
Ale ja mam, słuchajcie, nie chcę tutaj szerzyć teorii spiskowych,
ale wiecie, że są dwie wersje tłumacza. Jest wersja darmowa i płatna.
Na przykład wtyczka JGT, ta taka do tłumaczeń z gier japońskich, gdzie musimy się logować, korzysta z płatnego tłumacza.
A ciekawe Patryku, ja się tak zastanawiam, gdybyś na przykład przetłumaczył sobie i to przetestował na Acromie, tłumacząc jakąś stronę internetową.
Wtedy jest dobrze.
To jeżeli tak, to jest całkiem możliwe, że właśnie tutaj, no…
Ja mam jeszcze jedną teorię spiskową.
Nie wiem, czy tutaj też można spekulować.
Może Google, wiedząc, że ludzie jakoś obchodzą wymogi
np. wykupienia sobie klucza API, po prostu…
Wiem, że ta wtyczka jakoś to obchodzi.
Może po prostu wtedy korzysta z jakiegoś gorszego algorytmu specjalnie.
Nie wiem, być może.
Ale czy jest do NVIDIA coś do tłumaczenia lepszego?
Jest na przykład ten hiszpański traduktor Avanzado.
Tak, to się chyba wyświetla jako Advanced Translate chyba w sklepie.
I czego to używa? Powiedzcie mi.
Tam jest lista rozwijana z tymi usługami i jest na przykład…
Możesz sobie to spróbować. Działa to trochę wolno i jest takie…
I pewnie ma jakieś ograniczenia w ilości przetłumaczonych.
Jeżeli ma ograniczenia, to prawdopodobnie bardziej ograniczenia w ilości przerzuconego tam tekstu,
więc do jakichś krótkich rzeczy to się nada, natomiast do rzeczy dłuższych,
jakbyś chciał na przykład całe artykuły tłumaczyć, to prawdopodobnie by to nie zadziałało,
A to dzięki, to w takim razie sobie to sprawdzę, ten Advanced Translator, tak to się nazywa?
Jeszcze raz, tak to się nazywa?
Tak, ja zaraz mogę zobaczyć, jak to mi się u mnie w sklepie wyświetla.
Gdybym jeszcze sklep się nie zgłosił.
Nie, ja tego w ogóle w sklepie nie widziałem, ale może nie jest kompatybilne z moją wersją, albo coś.
Nie, no to znaczy, co z wersją stabilną powinno działać, natomiast może faktycznie to się wyświetla po hiszpańsku.
Aha, to nie jest ta zakładka.
To ja może przejdę…
Efekty dźwiękowe.
…żeby tutaj nie pisieć.
Jasne.
To teraz informacja dla tych w końcu, słuchajcie, udało mi się odkryć,
ponieważ odkryć, w jaki sposób sobie pograć w odchłań.
Starą, dobrą odchłań konsolową,
ponieważ od jakiegoś czasu niestety ZDSR,
w którym mogłem grać w odchłań, przestał ją czytać.
No i zacząłem się zastanawiać, co się dzieje.
ZDSR-a nie udało mi się zmusić, natomiast udało mi się zmusić NVIDIA
do czytania odchłani automatycznie.
Co zrobiłem? Po pierwsze, w Windows Terminalu
ustawiłem w jego ustawieniach, żeby domyślną konsolą
Był terminal Windows, czyli ten taki standardowy terminal CMD,
prawdopodobnie, po czym skończyło się tak, że i tak odinstalowałem
Windows Terminala całkowicie z systemu, ponieważ za bardzo grzebałem
i tak się dogrzebałem, że zepsułem i musiałem odinstalować całkowicie.
Ale to jest nieważne. Jeżeli jest Windows Terminal jako domyślny,
to ustawiamy sobie konsolę, jaką domyślam, jako Windows Terminal.
I w Toro Files również wybieramy Windows Terminal,
bo tam w dwóch przypadkach musimy zebrać.
I co teraz?
Jeżeli uruchomimy Otwine,
to teoretycznie on nam się uruchomi w terminalu.
Natomiast NVDA będzie się zachowywać w taki sposób,
albo nie będzie czytał nic,
albo będzie czytać automatycznie całą konsolę od góry do dołu.
Czyli cokolwiek byśmy nie wpisali, on będzie czytał wszystko od góry do dołu,
a nie tak, jak powinno się pojawiać.
Co należy zrobić, żeby zaczęło to czytać normalnie?
Należy wejść w ustawienia NBD.
Ja akurat korzystam z wersji angielskiej, nie wiem, jak to jest po polsku.
Należy wejść w Advanced, czyli w ustawienia zaawansowane.
Oczywiście należy potem kliknąć w ostrzeżenie, które nam się pojawi,
że absolutnie rozumiem, co robię, że te ustawienia,
bo jak nie będę uważny, to coś tam zepsują.
No i w ustawieniach zaawansowanych mamy opcje dotyczące konsoli.
I tam, to się chyba jakoś nazywa Console Type,
I tam mamy coś takiego jak Automatic UI, czyli ten taki nowoczesny interfejs Microsoftu,
którym Microsoft tak kocha i wszędzie chce go użyć, wciskać nam.
I tam musimy przestawić opcję, która w wersji angielskiej nazywa się Legacy.
I to jest w tym momencie przestawienie się na ten stary tryb odczytywania.
Ja nie znam się i nie wiem, jak to wszystko działa, ale po przestawieniu z tego UEA na tryb Legacy
Odchłań działa, można z Nviniem grać.
Obawiam się, że może być problem potem z jakimiś nowszymi konsolowymi aplikacjami
typu jakiś wisp.pl, nie wiem, co tam jest koncertowego, że tu może być problem.
Ale wiecie, czego ja nie jestem w stanie zrozumieć?
Jak ja np. ten otłań próbowałem uruchamiać poprzez konsolę samą, to np. ZBSR czytał automatycznie, niby, tylko pojawiał się inny problem.
Nie wyświetlały się w całości opcje, czyli np. zamiast słowa wyjście było wyj.
Czyli tak jakby ekran nie wyświetlał całego tekstu.
Ale to się działo nie po odpaleniu po prostu kliku odchłań exe z eksploratora plików,
tylko jak ją uruchomiłem z konsoli.
Więc ja tego nie rozumiem. Konsolowa aplikacja…
Nie rozumiem tego.
We właściwościach jakieś parametry wywoływania plików,
które normalnie ty nie wywołujesz, jak w konsoli wrzucasz ścieżkę.
Czy w ogóle ustawienia konsoli, jak się tam dojdzie, bo właściwie tam jest pełno jakichś takich ustawień dziwnych w samej konsoli, ale ja tam wolę nie grzebać po prostu.
A tu mi nie chodzi o ustawienie konsoli, tylko o ustawienie pliku .exe, żeby mógł deweloper zaszyć po prostu jakiś parametr, z którym się odpala plik.
Natomiast ta opcja w ustawieniach NVDA, to się nazywa zaawansowany i tam jest obsługa konsoli systemu Windows i się wybiera przestarzała.
No to właśnie to trzeba zrobić.
Ja w międzyczasie też w końcu udało mi się dotrzeć do sklepu i faktycznie u mnie ten odatek się po prostu nazywa Advanced Translator, on jest po prostu w sklepie. W tym momencie jest to wersja 2024.9. coś tam dalej.
A w wersji polskiej, co ciekawe, wyświetla się to, co mówiła Paulina, czyli traduktor Avanzado.
A to dobrze, ja mam FDA po angielsku, więc nie ma problemu.
Jeszcze jedna rzecz, a propos Forzy.
Ty Piotrze wiesz, że ja prywatnie Ci je nagrywałem.
Przyszła mi taka pewna sugestia na myśl,
ponieważ ja mam czasami taki problem, że jak zaczynam skręcać
i skręcam za lekko, to czasami mam problem ze zgadnięciem,
z rozpoznaniem, czy ten pad, czy ta delikatność ruchu
tej gałki sprawiła, że faktycznie w tym momencie zadziałało to
Do gry doszła informacja, że ta kierownica wirtualna została w tym momencie przekręcona.
Ja w tym momencie nie wiem, czy mój samochód zaczął powoli skręcać.
Mam taką sugestię. Ciekawe, czy na Discordzie Forzy jest ktoś, kto się zajmie dostępnością.
Został dodany taki dźwięk, że w tym momencie
kierownica została wirtualna przekręcona
i samochód zaczął w tym momencie skręcać.
Albo wibracja odpada, że w tym momencie
coś zacząłem skręcać.
Albo właśnie, żeby był jakiś taki dźwięk dodatkowy.
Czy ktoś tam jest, kto pracuje nad tym teraz? Nie wiem. Wiem, że kiedyś były osoby, natomiast to były osoby zatrudnione na kontrakt, który się skończył.
Możesz spróbować napisać na forum. Może być też warto napisać do pana Aleksa, który tworzy tą aplikację ArtFC.
Bo ja teraz nie wiem, czy tam jest takie dane dostępne, ale jeśli tam jest dostępna informacja o koncie nachylenia kół,
To może być coś, co dałoby się zaimplementować w tym narzędziu RTFC.
Jest z tego co wiem chyba dźwięk, że jak skręcamy taki zacący i on…
To znaczy możesz sobie włączyć informacje, możesz sobie włączyć kompas
i możesz sobie włączyć informacje o przechyleniu samochodu.
Tylko wiadomo też, samochód cię może przechylać w innych sytuacjach, tak?
Podczas hamowania lub gdybyś wyjechał na przykład na jakąś górkę.
Więc to niekoniecznie musisz się informować o tym, że akurat zacząłeś skręcać.
Mhm. Natomiast jeszcze mam informację a propos Hearthstone’a i muszę to tutaj powiedzieć, bo to się może zaraz skończyć.
A mianowicie trwa na Discordzie Hearthstone’a giveaway, w którym będzie można wygrać, zdobyć za darmo pakiet kart do najnowszego dodatku.
dlatego o tym informuję, bo to się może niedługo skończyć.
Ja nie wiem, jak długo jest przewidziany ten giveaway,
ale trwa i można napisać na kanale giveaway
informację jakąkolwiek, czy chcemy dołączyć.
Także ja… mi się już raz udało wygrać, także…
Jak ktoś z was…
Dziękuję za informację, przełączyłem, a faktycznie myślę, że to jest dosyć istotne.
Głośników Hearthstone’a trochę wśród naszych słuchaczy jest.
Tak jest, no ja również się do nich zaliczam.
Jeszcze takie ostrzeżenie dla użytkowników iOS-a, a mianowicie najnowsza beta iOS 18.4.
Jest problem bardzo duży z szybko lecącą baterią na łeb, na szyję.
Przynajmniej jeżeli chodzi o iPhone SE, najnowszy model iPhone SE chyba trzeci.
Jest taki problem, że niestety bardzo szybko leci bateria.
I w zasadzie nie wiem dlaczego muszę co parę godzin tę baterię ładować.
Dzisiaj pojawiła się beta iOS-a 18.4 beta 4.
Nie mam pojęcia, czy to coś poprawiło czy nie,
ale beta trzecia i beta druga to po prostu była tragedia i był kosmos.
A to ja tego nie zauważyłem u siebie.
Inna sprawa, że mam troszkę nowszy telefon,
ale ani w becie drugiej, ani w trzeciej nie miałem takich problemów.
Czwórki jeszcze nie mam zainstalowanej.
Natomiast rozumiem, że próbowałeś telefon restartować.
Próbowałem, nawet sprawdzałem, jaki mam poziom środowy baterii.
No i nie jest źle, jest 70%.
Ale jak powiedziałem, że jak to będzie się dalej robić,
to ta bateria za chwilę mi się może zepsuć.
To znaczy z jednej strony nie jest źle, z drugiej strony to też nie jest jakoś dużo.
Mówi się, że generalnie po dwóch latach ten poziom spada poniżej 80%,
czyli to jakby twoja bateria straciła 30% swojej pojemności w tym momencie.
Więc może być też tak, że po prostu fizyczny stan fejlbaterii się po prostu też zaczął pogarszać szybciej.
Do 80% to powinno być spokojnie, tak.
Tak, tak. A poniżej to już mogą się zacząć dziać bardzo dziwne rzeczy. Z akcentem mogą, ale nie muszą.
Czyli może pomyśleć jednak o wymianie baterii.
No generalnie zalecane jest poniżej 80% wymiana. Z tego co pamiętam.
No to ja jeszcze zobaczę, jak to się będzie zachowywać w tym update’cie teraz.
No ale jeśli nie, to wymienia. Będzie konieczna.
I to wszystko na ten moment.
Do usłyszenia.
Ten giveaway trwa do przyszłej środy, do bodajże naszego wieczora.
Także jeśli ktoś nas słucha, to warto byłoby wejść teraz.
A jeśli słuchacie nas z archiwum, to prawdopodobnie już będzie za późno.
Ale jeśli słuchacie nas na żywo, to na stronie halfstoneaccess.com
jest chyba link do tego Discorda, jeśli ktoś jeszcze nie jest jego częścią.
Warto generalnie tam być, bo tam najszybciej wszystkie ogłoszenia
odnośnie jakiejś aktualizacji się będą pojawiać.
I tak, losowanie odbędzie się w środę o dziewiątej naszego czasu, wieczorem.
A ja już mogę odtworzyć tę wiadomość, więc Sylwester ma do nas do powiedzenia.
Niestety, ale ułatwienia dostępu, jak wejdę i znajdę zainstalowane aplikacje ułatwień dostępu,
Jak wcisnę tego zeszło, to mi wyskakuje, że w jednym jest wyłączone i niestety dochodzi i pomoc na dole też jest wyłączona.
I nie da się tego włączyć. Co włączę, to mi się wyłącza to w ułatwieniach dostępu.
Bo jest takie ułatwienia dostępu, wejście do tego.
No to ciekawe.
Mamy jeszcze telefon, więc odbierzmy. Ktoś z nami z drugiej strony?
Sławek ponownie.
Cześć Sławku.
A propos właśnie tego co Serwester przed chwilą mówił, bo słyszałem, że mu się to włącza, że mu się to wyłącza.
To jak mu się właśnie to wyłącza, to może niech jak klikał na to,
to niech może rzeczywiście właśnie wejdzie, tak jak mówiłem, w te aplikacje,
tak jak Paulina poprawiła w tym, to właśnie niech wejdzie w te aplikacje,
skoro mu się to wyłącza i niech wtedy właśnie spróbuje znaleźć to więcej
i tą Unlock Restricted. Bo wtedy ja też nie mogłem włączyć,
Nie mogłem włączyć, bo wyświetlało tą blokadę.
Czyli właśnie niech sobie wejdzie w ustawienia,
nie wiem, czy zarządzania aplikacjami, czy listę aplikacji.
Tam, gdzie ma wszystkie te aplikacje w ustawieniach.
I wtedy właśnie tego dziesiło niech tam sobie kliknie.
I tam jest odinstaluj, zatrzymaj.
No i tam powinien jechać, jechać, aż znajdzie więcej opcji albo więcej.
Nie pamiętam, to jak mówiłem.
Może już się ta opcja wtedy pojawi, jak mu się to wyłączyło.
I może sobie włączy.
A dzwonię też w takiej sprawie,
bo kiedyś kilka tam podcastów, niekawałek czasu temu
było mówione o głosach a cappella, prawda?
I że one na Androidzie w sumie nie działają.
Ale ja zainstalowałem…
Był taki czas, że faktycznie nie działały.
Później odinstalowałem, bo nie działały.
Teraz zainstalowałem i powiem szczerze,
to ja pisałem przez jedno L, nie przez dwa.
I udało mi się to pobrać.
I zainstalowałem i działa.
Dokupiłem sobie właśnie głosy Ania i głos Piotr.
To tam jest koszt dwa głosy i całość 36 zł,
bo 17,99 zł za głos.
I powiem szczerze, mi to działa dobrze.
A jeszcze chciałem… i mi w każdym razie działają te głosy.
Nie wiem, czy już Google to jakoś poprawił, że to teraz działa.
A jeszcze jedna sprawa, to jest a propos…
w zeszłym tygodniu była właśnie mowa o tej aplikacji Orange Telefon, prawda?
Tak jest.
I tam da się ustawić, żeby informowało, kto dzwoni,
Jak miałem googlowski telefon to było, że tam przychodzące połączenie z numeru takiego i takiego, a jak miałem oranże to nie mówiło czegoś takiego, więc nie wiem czy to się da ustawić, żeby była informacja taka czy nie.
No tak, ale np. żeby mnie informowało kto do mnie dzwoni głosowo.
Znaczy, żebyś dostawał informację np. o nazwie firmy, z jakiej to jest?
A czy nie, o nazwie kontaktu.
A, o nazwie kontaktu.
O połączenie, tam nie wiem, od siostry, czy od brata, czy tam Marek, czy tam…
To nie wiem, czy to nie zależy od… Być może na Androidzie w jakiś sposób ta aplikacja,
jeżeli miałeś ustawioną aplikację od Orange’a, Orange Telefon,
No być może ona w jakiś sposób wchodzi w konflikt z tą aplikacją telefoniczną.
Ciężko mi tu powiedzieć, bo ja korzystam z iOS-a.
Ja tą orędżę miałem ustawioną jako domyślną.
Orędżę jako domyślną, bo musiałem ustawić ją jako domyślną.
Bo było, czy chcę ustawić jako domyślną.
Bo na przykład miałem ustawioną podobną, tylko to się nazywało telefon Google.
I tam mi normalnie czyta i tam też jest ta kwestia tego spamu, tylko tam chyba nie jest to aż tak rozszerzone mi się wydaje.
Bardziej to rozszerzone.
Ale żebyśmy mieli tu jasność, to nawet jeżeli ktoś do ciebie dzwonił, to nie byłeś w stanie sprawdzić kto to jest za pomocą czytnika ekranu?
Czy po prostu chodzi o to, że automatycznie to nie było odczytywane?
Automatycznie nie było odczytywane.
Aha, rozumiem.
Czy na pewno musisz ustawić tą aplikację jako domyślną, żeby odrzucała automatycznie połączenia, które są uznane za spam?
Z tego co wiem, to tak, bo miano, że prosiło o ustawienie, które chce mieć telefon ustawiony.
No ale to, że prosi to niekoniecznie jest to, że musisz, bo może to działa tak, no ja nie znam tej aplikacji, nie używałam jej nigdy,
Może to jest tak, że pomimo, że nie ustawisz jej jako domyślną,
to w ustawieniach możesz chcieć, żeby ona odrzucała te połączenia,
które są uznane za spam, ale które będą realizowane przez aplikację Google Telefon.
Ale to nie mogę chyba korzystać z obydwu, czy z Google Telefon,
czy z tego, bo korzystam właśnie z danej aplikacji,
bo jak instalowałem, to zawsze mnie to, jak rozumiem,
prosiło o ustawienie jako domyślne.
Czyli czy chce Orange Telefon, czy chce Google, czy chce cokolwiek innego.
Czyli w Androidzie ta aplikacja to w ogóle się inaczej zachowuje, bo jak rozumiem ona jest taką aplikacją telefoniczną, tym dialerem całym.
A to wygląda jeszcze inaczej, bo w iOS-ie działa to tak, że jest to aplikacja typowo do blokowania połączeń.
W iOS-ie nie da się z kolei mieć innej aplikacji telefonicznej niż aplikacja natywna.
Co z jednej strony ma swoje minusy, ale też ma swoje plusy, bo wszystko działa bardzo konsekwentnie.
Jeżeli o takie różne możliwości chodzi, na przykład wszystkie aplikacje do rozmów telefonicznych
Bo np. standardowy taki aplikator,
Jak byłeś wygrany, a ja sobie właśnie wygrałem Google Telefon i to mi pasuje i tam mnie informuje i tam też jest chyba ten spam z tego co kojarzę.
Używałem na przykład Shudai Answer. Kiedyś była jeszcze też taka aplikacja, ona też na iOS-a i na Androida zresztą, odebrać telefon ona się nazywała i też z niej korzystałem, ona była z kolei darmowa, jak dobrze pamiętam, ale jakoś naprawdę mi się ostatnio po prostu ten Orange telefon sprawdza, więc…
Z ciekawości rozumiem, że trzeba tam się jakoś zalogować, trzeba być klientem Orange.
Nie, nie. Właśnie, właśnie to, właśnie to jest to, o czym mówiłem w poprzedniej audycji.
Bez względu na operatora.
Nie, to aplikacja Orange Telefon aktualizowana jest regularnie.
Ona się sama zresztą może nawet przypominać, żeby po prostu ją otworzyć i zaktualizować.
A o tej aplikacji odebrać telefon, to w ogóle nie słyszałem.
A to poszukaj jej, bo to też jest jakaś… Chociaż też mam wrażenie, że ona została tak jakoś porzucona.
Ale mogę tu być niesprawiedliwy w ocenie.
A to by było wszystko.
Okej, to dzięki w takim razie. Do usłyszenia.
Do usłyszenia.
No to w takim razie, co teraz?
Teraz kolejny news.
Muszę sobie zobaczyć, co tu było, co nie,
bo tych wiadomości ostatnio było dużo i połączeń.
To teraz Paweł, od Ciebie informacja na temat tego,
jak można z telefonu zrobić krótkofalówkę.
No, zgadza się.
Ja tutaj mam taki zestaw przed sobą.
Wspominałem kiedyś na łamach tytułu przeglądu
o czymś, co znalazłem na Hacker Newsie,
czyli o zestawie, który nazywa się KV4P.
No i był to zestaw typu zrób to sam,
czyli sam sobie kup części, sam sobie zlutuj,
instrukcję masz, aplikację masz,
a jak sobie zlutujesz, to podepniesz się do smartfona z Androidem
I tym smartfonem sobie poszusujesz po falach UKF nawet chyba, bo to jest 2,70 m.
To już nawet nie są chyba krótkie.
No i jak to wiele projektów z Hacker Newsa, tak to przeleżało.
Jako ciekawostkę to podałem.
No po czym od słowa do słowa pogadaliśmy ze znajomymi właśnie w Metalabie,
czyli w tym Hackerspace w Wiedniu, o którym już wspominałem.
No i znajomy stwierdził, że on znalazł w sumie taki zestaw
To może to kupimy i się tym pobawimy.
No i jak powiedział, tak też zrobił.
No i aktualnie leży przede mną woreczek strunowy.
Ja ten woreczek strunowy postaram się tutaj otworzyć
i z niego wyłuskać to, co mi jest potrzebne.
A co mi jest potrzebne?
Mam płytkę, która jest bazą tego całego urządzenia,
w której jest cała elektronika.
Bardzo to surowo wygląda.
Znajomy właśnie to sam na własną rękę zlutował,
bo on właśnie kupił wariant, w którym
przyszły same części, ale
lutowanie to już jest
sprawa użytkownika.
No więc wygląda to dość surowo. Nie jest jakoś odbudowane,
obudowane sensownie,
piny wystają.
No ale jest.
Taki prostokącik.
Bo to te części
chyba, te które oczywiście nie były
Były wydrukowane w trukarku 3D.
Takie plastyczek, chropowaty z zewnątrz.
Z tyłu, z przodu, gołe piny, palce można pokaleczyć.
Takie wystające pręciki. To jest element nr 1.
A elementem nr 2 jest antena, która jest gumowa, niezbyt długa.
Nie jest też specjalnie teleskopowa ani elastyczna.
W związku z czym ja ją teraz wyjmę.
O, mamy antenę.
Spróbuję ją przykręcić do bazy.
O, i antena się wkręciła.
A następnie mogę kablem USB…
Oczywiście kabel, który dostaliśmy w zestawie jest trafiony, więc nie działa.
Przez pół spotkania tydzień temu w czwartek żeśmy się zastanawiali
na czym problem polega.
Więc mam swój kabel.
USB-C jest po obydwu stronach,
czyli USB-C jest po stronie
urządzenia tego radiowego
i po stronie
smartfona.
O, tutaj słyszymy bardzo ładne
dźwięki. Prawda, takich dawno u mnie
nie było słychać.
To jest Pixel 7a.
Ja się na chwilkę wyciszę, żeby
wpisać pin.
Czekamy.
Jak rozumiem, żadnych wiadomości na
razie nie ma, ani innych tylko…
Mamy telefon, ale to za chwileczkę.
Wpuścimy.
Ja tu zaraz zwolnię…
Zwolnię syntezę.
Ale już słyszymy to, co mamy słyszeć.
I to jest Ether.
No, dobrze, powinno wystarczyć.
I jestem teraz w interfejsie aplikacji KV4P.
Mam tu przycisk Settings, tu są jakieś ustawienia.
Mam informację, że jestem w trybie Simplex,
czyli teoretycznie gdybym nacisnął PTT,
To by przestało słychać ten szum tutaj w tle.
Wpisałem częstotliwość graniczną PMR-ów, czyli takich zwykłych walkie-talkie,
jakie można kupić sobie w sklepie i po prostu legalnie nimi operować,
w nadziei, że coś usłyszę. To jest chyba graniczna częstotliwość PMR-ów.
Nie latałem po wszystkich kanałach, ale mogę tu wejść.
Mogę wpisać…
A, właśnie, muszę wrócić na znaki, bo…
Dokładnie. Bo kursor zawsze wskakuje na początek
i potem się mogę dziwić, czemu te częstotliwości mi się nie wpisują.
Ano, bo muszę usunąć starą
i wpisać nową.
I piszę przykładowo 438.950.
Na tej częstotliwości jest rzekomo…
Jestem, potwierdźmy to.
Tu powinien być przemiennik na wzgórzu Kallenberg, który ponoć taką mocą nadaje,
że powinno być go słychać w zamkniętej szczelnie piwnicy na urządzeniu z odkręconą anteną.
Nam się to na tej pory nie sprawdziło, więc jakby najważniejsza funkcja tego zestawu
póki co nie zdała egzaminu, nie słyszymy niczego, nie mogliśmy niczego namierzyć.
Moja teoria na to jest taka, ale no, kurczę, chyba jestem ostatnią osobą,
która powinna się wypowiadać, bo nie mam pojęcia o elektronice.
Ale zauważyłem, że jak przycisnę palcem trochę mocniej jeden z pinów tutaj,
który to był…
O! Jeden z pinów od dołu. Chyba gdzieś tak tu w połowie.
Jest taki jeden pin, który jak przycisnę mocniej palcem, to jak słyszycie,
Więc rozumiem, że przestaje w ogóle jakkolwiek z tą anteną czy z resztą się kontaktować.
Więc możliwe, że coś tu jest niedolutowane, w związku z czym wpływa to jakoś na jakość tego odbierania.
Ten przemiennik powinien się co parę minut sam identyfikować, więc gdyby to działało, to byśmy na pewno usłyszeli.
To nawet nie jest to, że ether jest pusty i nikt nie mówi, tylko po prostu tak to mamy.
Co my tu jeszcze mamy w tej aplikacji?
Tu mamy miernik, który chyba albo nie jest czytany, albo chwilowo tu nic nie ma,
więc nie wiem, czy to jest ten miernik, który podaje nam te wartości radio Santiago i tak dalej,
czy też jakość chyba też nadawania morsem, ale no takim mamy.
Mamy tutaj pamięci, możemy wpisywać do pamięci różne zakresy częstotliwości,
Tak, to jest pusta lista, gdzie też byłyby te pamięci chyba wylistowane.
Tu jest skanowanie. Można skanować pewnie po całym zakresie.
Mogę to włączyć. Mogę dodać pamięć.
I tu mam dwa tryby. Voice, czyli nadawanie głosem.
I APRS, czyli takie, no chyba analogowe jednak, ale nadawanie tekstem.
Trochę się na tych rzeczach nie znam, więc jeżeli są wśród nas radioamatorzy,
to możecie mnie poprawić i najmocniej przepraszam za moją ignorancję.
I mamy push-to-talk, który ja bym na tych częstotliwościach go teraz nie próbował,
bo bynajmniej nie mam do tego uprawnień, ale on działa.
Znaczy nie, on powinien by działać, ale testowaliśmy na innych częstotliwościach
No i mamy też ustawienia i w nich możemy poustawiać sobie squelcha,
możemy sobie poustawiać graniczne wartości różnych pasm, 2,70 m.
Możemy też poustawiać sobie, czy push to talk ma być przytrzymywany,
czy stuknięty dwa razy. No i animacje, czy mają się odbywać,
możemy wpisać swój znak wywoławczy, no bo gdybyśmy wysyłali
jakieś dane, jakąś wiadomość, to ten znak byłby tam też zakodowany,
nasz wywoławczy. No i parę jeszcze ustawień tam poczynić można.
No więc jak widać, jest to proste. Wielu funkcji nie ma.
Natomiast, no co by nie mówić, jest to kolejny pomysł na,
jeżeli oczywiście pytanie, jaki to jest potencjał, żeby podpiąć
na przykład jakąś mocniejszą antenę, żeby to jakoś rozbudować,
Ale jest potencjał na to, żeby mieć całkiem fajnie dostępny, z talkbackiem czytany
radiotelefon, radioamatorski, zrobiony właśnie z naszego smartfona.
Także ja będę temat jak najbardziej śledził i mam nadzieję, że będę miał jakieś lepsze rezultaty
niż na ten moment, że sobie to poszumi. No a jak już tak będzie daleko,
to dam Wam o tym oczywiście znać.
A ile to kosztuje?
Ile kosztuje? Myślę, że około 200-250 złotych. My płaciliśmy około 50 euro.
Dzień dobry, wieczór naszej Piotrze.
Co do tego CSR-a, komentarego, to tam trzeba wejść w oli tam, ten…
aplikacje domyślne, może tam kolega Sylwester nie wie gdzie to jest,
to nie w tę dostępność toll-back, tylko aplikacje domyślne,
zjechać do tego gdzieś siło, udostępnić to wszystko, pozezwalać
i potem w prawo iść tą aplikację, też tam będzie więcej opcji
i tam to włączyć, nie? I to powinno zadziałać, nie?
Ja to mam tak zrobione. Robiłem to kilka razy. I powinno mu się to udać, bo to już nie jest jakoś skomplikowane.
Android 14.
Tak. A co do tego radyjka, to ja mam takie radio Baofeng. Nie wiem czy wy słyszeliście o takim…
TV5R może?
No chyba tak, chyba tak.
Mhm, tak.
To też się mówi.
To też się mówi po angielsku i po chińsku, nie?
Jak ktoś tam…
Tak, tylko tam trzeba ustawiać częstotliwości.
Bo chyba domyślnie jak się przyczytuje to…
Tak, tak, tak. Jest tam tych opcji.
Związując coś się tam da zrobić, nie?
Miał mi tutaj kolega
przyjechać tutaj, pomóc.
To kupiłem do nasłuchu służb, nie?
Tutaj, żeby coś się wiedzieć,
Co się dzieje, nie i tak dalej. Nie na osiedlu. I po prostu to działa. Ale to też się zmieniają te, jak to się nazywa, z analogowych pojętów, np. służby policyjne zmieniają na cyfrowe.
No tak, ten system Tetra bodaj on się tak nazywa.
No już nie wiem, nie wiem, to już muszą się zapytać jakiegoś policjanta.
I to wtedy zaczyna, no już przestaje być dla nas dostępne, żeby tego posłuchać, bo to już jest wtedy kodowana ta transmisja.
Tylko alufka kosztuje 150 zł. Nie jest jakiś mega wydatny.
W sumie spoko. A co do tych spamowych połączeń i co to Sławek dzwonił,
no to jak chce wiedzieć kto do niego dzwonił, to jest taka funkcja,
możemy powtarzać w telefonie 2-3 razy kto dzwonił. Dana osoba.
Jeżeli o to chodziło.
Pytanie czy to działa z każdym tym dialerem.
A z jakiego korzystasz? Z jakiej aplikacji? Jako telefonu?
Telefon, aplikacja. Zwykła telefon. Mam dwie. I któraś tam jest domyślna.
A co do połączeń spamowych, to nie wszystkie połączenia są spamowe.
Bo ja tu odbieram wszystkie telefony i zazwyczaj to jeszcze się nie zdarzyło
Albo banki dzwonią, albo ktoś w jakichś innych sprawach.
Piotrze, ty jesteś szczęściarzem. Jak do ciebie nie dzwonią spamowe połączenia, to naprawdę gratuluję.
Tylko pamiętaj też, że nie wszystkie instytucje, które się podają za jakieś konkretne, na przykład za bank,
to pamiętaj, że nie zawsze jest to bank. I na to bardzo trzeba uważać, bo czasem ktoś dzwoni i mówi, że jest z banku.
Ja kiedyś miałem taki telefon, na przykład, niby to z działu bezpieczeństwa banku PKO BP.
Okazało się, że to… i nawet co ciekawe, był to chyba numer telefonu podrobiony, jako ten numer telefonu rzeczywiście należący do banku.
Ale po drugiej stronie był człowiek, który z bankiem absolutnie nie miał nic wspólnego.
Nie chciał włączyć informacji, jakiś dostęp do konta itd.
Tak, tak, tak.
Na to trzeba uważać. Ale jeżeli do Ciebie spammerskie połączenia nie dzwonią, to…
Dzwonią o fotowoltaikę, a ja o fotowoltaikę dzwonią jak w bloku mieszkam, to ja fotowoltaikę nie będę zakładał.
Mam tak samo. I wtedy połączenie zostaje przerwane, nawet już w ogóle nie kontynuują rozmowy.
No dobra, to dziękuję za tę rozmowę, pozdrawiam wszystkiego dobrego.
Dzięki, dzięki, pozdrawiamy Cię również, do usłyszenia.
No to w takim razie jeszcze mamy wiadomości na Whatsappie.
Dwie od Sylwestra.
Właśnie to wcisknę, wcisknę niestety. To nieskuteczne.
No to Pawła tak, kurku. No szkoda, sprzęt trochę uszkodzony, niesprawny.
To taka słaba prezentacja, tylko na telefonie. Ale dość ciekawe by było to.
Ale jakby kiedyś ktoś mu poruczował, poprawił coś, to jakby mógł by kiedy jeszcze w wolnym czasie zaprezentować ten krótkofalarski sprzęcik.
Tylko trzeba jego do porządku doprowadzić.
No właśnie, będziemy się temu przyglądać, bo to jest też trochę tak, że my w ramach tej naszej grupy, w której zdecydowaliśmy się zakupić,
Jesteśmy dopiero na początku naszej
jakiejś takiej ścieżki. W ogóle zaczynamy niedługo kurs
krótkowalarski za jakieś dwa miesiące.
Także my dopiero jesteśmy na początku
pozyskiwania jakiejś powiedzmy wiedzy
fachowej. Znajomy, który się zdeklarował,
że to kupi też zna się na elektronice na tyle,
żeby zlutować różne rzeczy, ale nie zna się na radiu
konkretnie. Byliśmy z tym sprzętem nawet właśnie
i było takie większe spotkanie, gdzie go zaprezentowaliśmy
i było tam kilku radioamatorów.
I oni też nie bardzo mieli pomysł, co się mogło stać,
że to nie do końca jakoś działa.
Także będziemy monitorować sytuację.
Ja chciałem Wam to po prostu już pokazać,
bo jest to fajna ciekawostka
i demonstruje to chociażby to,
że interfejs do obsługi tego na smartfonie
jest dostępny z TokPekiem.
I myślę, że to jest bardzo ważna sprawa,
I wracamy chyba do newsów.
Paulina znalazła ciekawą informację.
Coś a propos kursów programowania dostępnych.
Tak, jest taka strona Techopolis, to się nazywa.
I ja w sumie nie wiem, na ile ten news jest aktualny,
bo po prostu była taka ala reklama na tej liście Dawida Goldfielda.
To jest strona, która ma kursy programowania
i różnych automatyzacji dla niewidomych.
Ale te kursy są w miarę tanie. One tam są np. 5 dolarów za miesiąc itd.
Czy tam 5 dolarów ogólnie za kursy w zależności od konkretnego case’u, z konkretnego przypadku.
I zaraz powiem. O, tu jest. Już mam listę.
Jest tak…
No i oczywiście wszystkie są po angielsku.
Czyli rozpoczęcie
zabawy z tymi
metarabanami, o których myśmy mieli podcast.
I to jest
5 dolarów
za miesiąc.
Używanie terminala MAC-owego w dostępny sposób i to jest dostępny kurs za darmo,
więc możemy sobie sprawdzić na przykład na ile nam pasuje ta strona, na ile jesteśmy
zadowoleni z tego jak te kursy wyglądają albo właśnie pod kątem uczenia się i takiego
Przyswajenie przez nas informacji, albo po prostu pod kątem wygody korzystania z tej strony.
Jest też taki bundle, zestaw wszystkich kursów od Techopolis’a.
Mastering Apple Shortcuts, czyli jakby używanie aplikacji skróty,
automatyzacja swojego życia. To jest 10 dolarów za cały kurs.
AI Tips Weekly, czyli porady dotyczące sztucznej inteligencji
co tygodniowo, nowe. Tam jest cztery dolary na miesiąc, ale oczywiście jak słuchacie tych
obszeglądów i moich kącików, no to już dużo mniej ta opcja się przydaje.
Mam nadzieję przynajmniej.
Practical Python. No to jak sama nazwa wskazuje, uczenie się programowania w Pythonie.
I 15 dolarów to kosztuje.
Tu jest jeszcze na drugiej stronie, to już tak szybko przeczytam,
Creating Custom GPT’s, czyli właśnie tworzenie modyfikacji do czata GPT własnych.
To jest 20 dolarów. Programming for Everyone, to taki ogólnikowy kurs
o programowaniu. DevTips Weekly, czyli takie porady dla programistów tygodniowe.
I podstawy SwiftUI, czyli tej funkcji do budowania interfejsów dla Maca i iOS-a.
No i tak naprawdę tyle z całej tej listy.
To przechodzimy teraz dalej i cóż, mamy kilka emulatorów Androida na Windowsa,
ale mamy też emulatorów Windowsa na Androida.
Pawle. Tylko Pawła nie słychać.
Już mnie słychać.
O, tak jest.
Tak, mamy taki emulator, nawet chciałem go przetestować
na tymże moim pikselu i niestety wyskoczył mi komunikat, że ta aplikacja
została stworzona pod starszą wersję Androida i nie spełnia wymogów
Play Protect. Także albo da się to obejść, albo po prostu tego nie ruszę.
Ale dobra wiadomość jest taka, że ktoś stworzył już poradnik,
jak nad tym uruchomić NVDA. Więc jest w sobie projekt.
Projekt się nazywa Winlator, strona to winlator.org.
Tam możecie sobie ściągnąć plik APK z GitHuba zresztą,
tegoż emulatora i zainstalować go na smartfonie.
No i po co ludzie takie rzeczy robią?
To jest w ogóle emulator na bazie czegoś, co się nazywa Wine.
I Wine to jest taki już wiekowy, już lata, od dawien dawna się rozwijający
emulator Windowsa pod Linuxa.
I to nie znaczy, że to jest maszyna wirtualna,
to nie znaczy, że mamy tam cały uruchomiony system
z pulpitem, z menu start i z całą otoczką,
tylko że jakby w taki emulowany sposób
pod tym systemem naszym głównym,
czyli oryginalnie był to Linux, teraz mówimy o Androidzie,
można uruchomić aplikację na Windowsa.
No to oczywiście ma mnóstwo ograniczeń,
bo nie każdą aplikację da się w ten sposób uruchomić,
Zdaje się, że tam przez długi, długi czas były problemy z bridge’owaniem,
czyli z mostkowaniem tego z jakimś czytnikiem ekranu.
To chyba nie chciało mostkować z orką.
Zdaje się, że tam jakieś rozwiązania powstały.
Głównie było to używane do gier, tak mi się wydaje, ale pewnie nie tylko.
I nie inaczej jest tym razem, bo już się wzięli do tego mądrzy ludzie
I zaczęli instalować na przykład Stima i różne gry pod Stima i sobie w te gry grać.
No i ktoś na Audiogames stwierdził, że stworzy poradnik i jest taki poradnik na GitHub’ie,
gdzie można sobie poczytać jak to wszystko zainstalować, żeby tam chodziło NVIDIA i właśnie nasze ulubione gry.
I zdaje się, że sam proces jest do wykonania chyba pod warunkiem,
że się użyje jeszcze z OCR-em i tam w paru miejscach coś się OCR-em kliknie.
Na pewno jest w samym emulatorze opcja zainstalowania plików EGZE w tymże emulatorze,
więc warto sobie ściągnąć NVDA już na naszego Androida.
Jak to brzmi w ogóle?
I przez ten emulator kliknąć zainstaluj i uruchomić, czy tam uruchom
i uruchomić ten plik.
Także
potem można kombinować z grami.
Nie mam pojęcia, co
bo nigdy nie używałem Wine’a
co można w ten sposób tak naprawdę
uruchomić, bo no pytanie
jeżeli mamy takie środowisko quasi
Windowsowe pod Androidem
to co, poszedłby tam na przykład Reaper?
Chyba nie.
Reaper to jest dużo więcej zależności
chyba, za dużo może zależności, żeby to
wszystko tam poszło. Do tego jeszcze wtyczki
Ja się bardziej przyziemnie zastanawiam, czy byłoby w stanie odpalić HSA.
Tylko, że żeby odpalić HSA, to trzeba wgrać mod dostępnościowy,
czyli dostać się do całego programu Philips i tak dalej.
I czy w ogóle jest to osiągalne w tym środowisku?
Dobre pytanie, czy on podmontowuje jakiś system plików,
czyli dałoby się przez dowolnego menedżera na przykład tam wejść,
albo sam ma jakiś menedżer plików?
Znaczy, mam z tym drobne doświadczenie na Macu,
bo na Macu Wine też jest i generalnie to jest po prostu system plików.
To jest po prostu katalog się tworzy, więc raczej z tym nie powinno być problemu.
Natomiast NVIDIA w takim środowisku, przynajmniej tak było na Macu i tak chyba
było na Linuxie, to w ogóle mamy taki skrypt Audio Game Manager, który nam pozwala
różne gry po prostu ściągać sobie w taki bardzo prosty sposób.
Nie wiem, co tutaj jest głównym problemem, natomiast generalnie NVIDIA tam generalnie
jest uruchomiany tylko po to, żeby było dostępne to API
dla gier na przykład, czy do aplikacji, które mogą mówić,
bo NVIDIA i sam siebie po prostu nie był w stanie czytać tych okienek.
Dlaczego? Nie wiem, może tam właśnie, tak jak wspomniałeś,
tam brakuje tych bibliotek, które są odpowiedzialne za dostępność,
nie wiem, natomiast wszystko, co mówi samo z siebie,
no to bez problemu się uruchomi.
Czyli częściowo Reaper wynawet mógł działać.
Ale menu nie przejrzesz.
Dokładnie.
No tak.
No, ale do gier, to chyba głównie z takim zamysłem
też powstało, żeby po prostu gry odpalać.
No ja myślałem sobie o Playroomie, ale jeżeli ma nie czytać tego,
po czym ja nawiguję, bo to są standardowe kontrolki.
To on przecież jakoś zapień włączy, ale to jest webowy Playroom.
Wiem, ale no…
Znaczy i tak trzeba by podpiąć klawiaturę do takiego Androida,
żeby w ogóle te gry obsługiwać.
To myślę, że trzeba sobie od razu na początku wyjaśnić,
Ale, no nie wiem, myślałem, że on jakoś będzie czytał.
Widocznie za mało znam charakterystykę Wine.
Ale no to jeżeli macie jakieś ulubione gry,
w które chcielibyście sobie pograć na…
To nie wiem, może jakiś Sequent Storm chociaż.
Na przykład.
No to możecie sobie pograć, być może teraz już też i na waszych smartfonach.
Marcel ma do nas pytanie.
Na YouTubie się pojawiło, jak
Jak przetłumaczyć jakąś wiadomość mailową?
Konkretnie, tu chyba nawet mam to pytanie obok,
więc przeczytam dokładne to pytanie.
Jak przetłumaczyć wiadomość mail w poczcie na iOS?
Za pomocą jakiegokolwiek narzędzia do tłumaczenia, podejrzewam.
Możesz użyć translatora Google, ma natywną aplikację.
Możesz użyć Dipla, też ma natywną aplikację, więc możesz zaznaczyć taką wiadomość, którą dostałeś i po prostu ją skopiować i następnie wkleić na przykład do takiego tłumacza i ją przetłumaczyć.
No i jest też ta funkcja natywna tłumacza Apple, ale ja szczerze mówiąc nigdy z niej nie korzystałem, przyzwyczajnie drugą naturą człowieka i ja zawsze korzystam z tych zewnętrznych translatorów.
Tak. Mamy pytanie od Sylwestra.
Pyta się, jaki to jest model Pixela, Pawle, ten, na którym testowałeś?
7a.
7a. Troszeczkę starszy, ale aktualizację dalej dostaje.
Tak.
Czekaj, a jakiego ty masz tam Androida?
14 jeszcze, bo 15 już mi tam powiadamiał, że jest,
ale jeszcze nie zainstalowałem.
Okej, czyli znaczy, że żeby się przebić przez ten Play Protect,
No to trzeba mieć starszego niż czternastka androida.
No to wygląda, ale to jest dziwne, bo ten Relator dość niedawno wyszedł, więc nie wiem, czy tam coś poblokowano na nowszych androidach, czy co się podziało, ale no…
Być może. Może tak być.
Może sam Pixel ma jakieś te… jakieś dodatkowe zabezpieczenia.
Może mieć, aczkolwiek wydawało mi się, że oni tam coś próbowali działać z wirtualizacją, ale może mi się pomyliło.
No, w każdym razie będziemy obserwować i jak coś się w sprawie zmieni, to pewnie spróbujemy dać znać, bo mnie to też by mogło interesować na przykład.
A tymczasem, Paulino, odbyła się konferencja Microsoftu, Microsoft Ability Summit, tak to chyba się nazywa, i ty wiesz, co się na tej konferencji działo.
Ona się odbyła dzisiaj i dosłownie z pół godziny przed telewizorem
dopiero pojawiły się newsy na temat tego, co tam było.
No i jak to co roku właśnie ten szczyt Microsoftu dotyczący dostępności
obrodził w nowe czy to obietnice, czy to premiery.
No i właśnie z premier mamy ten konfigurowalny joystick dla osób z ograniczoną mobilnością.
Nie wiem na ile mógłby się on przydać niewidomym, ale ogólnie można już go kupić.
Można tam sobie domontowywać przyciski i tak dalej. Nie wczytywałam się w to jakoś mocno,
No ale jeżeli ktoś jest zainteresowany, to oczywiście można.
Ja myślę, że dobrego kontrolera to nigdy za mało i na pewno i dla nas mógłby mieć pewne jakieś fajne funkcje.
Pytanie po prostu jaka cena, bo całkiem możliwe, że my nie mamy aż takich potrzeb, żeby urządzenie,
które jest dedykowane różnym innym niepełnosprawnościom, bardziej takim motorycznym wykorzystywać.
Chciałam sprawdzić jaka cena, ale chyba tutaj nie ma.
No w każdym razie w sklepie Microsoft można to sprawdzić.
Kolejna rzecz to jest jakaś integracja neuronowych głosów od Microsofta
z czymś co nazywa się Tobidynabox
I dzięki temu w aplikacjach TibiTalk i TibiPhone mają się pojawić głosy neuronowe.
Nie wiem co to są za apki. Nawet próbowałam to googlować i niezbyt wiele mi to przyniosło.
No ale cóż, może to jest po prostu coś dla jakiegoś specyficznego kraju lub kręgu kulturowego.
Albo może to jest coś co ma wyjść, no nie wiem.
Ale to, co może być ciekawe dla nas chyba najbardziej,
to jest informacja, że mają pojawić się usprawnienia
bazowane na sztucznej inteligencji w narratorze.
I ma to być przede wszystkim rozpoznawanie obrazu,
ale też coś, co mnie zaintrygowało, mianowicie
Jakiś tam dostosowujący się interfejs,
który stara się
uchronić nas przed przesytem informacji.
Nie wiem, o co z tym chodzi i jak to ma niby działać,
ale jestem ciekawa. Podobno nawiązane w tych kompilacjach
Windows Insider ma coś się pojawić.
Ja te kompilacje podbieram na bieżąco, więc może jak coś dostanę,
To już sobie to potestuję i będę dawać znać, ale no, jestem zaintrygowana.
Są tam też jakieś pomniejsze informacje o
osobach z problemami ze słuchem i z Teamsami.
I też z jakimiś partnerstwami i z przewodnikiem dotyczącym projektowania
dostępnych opakowań.
Ale myślę, że to już jest dużo mniej ważne w naszym kontekście.
Tobit, Navox, to są urządzenia wspierające komunikację dla osób, które mówić nie mogą, na przykład w wyniku stwardnienia rozsianego.
Tam są urządzenia, na przykład do sterowania oczami, gałkami ocznymi.
Okej, dobra.
Że mogą wybierać, tak jak Stephen Hawking, tak, frazy i będzie to wypowiedziane głosem.
To przepraszam, bo też myślę, że to jest coś dla niewidomych. To mogą się jakoś lepiej doprowadzić.
Nie, to też ważne jest mówić.
To prawda.
No to już wiemy.
Tak.
Tu mamy taką nietypową prośbę od Sylwestra, żeby o grach powiedzieć gdzieś między 22 a 22.30.
To spróbujemy, ale nie gwarantujemy.
Ale do gier jeszcze troszeczkę.
Mamy jeszcze tutaj kilka innych tematów.
Na przykład paczkomaty, to znaczy austriackie paczkomaty, bo ich dostępność…
No Paweł, w związku z tym, że w Austrii mieszka, no to poznałeś Paweł, tak?
Tak, tak. Znaczy nie do końca, ale o tym zaraz.
Natomiast wiem w teorii jak to działa i nawet tę teorię zacząłem gdzieś tam
próbować stosować. Otóż zamówiłem sobie ostatnio pewną paczkę.
Paczka nie zastała mnie w domu.
Swoją drogą, Austriacka Poczta ma aplikację mobilną i w aplikacji można te przesyłki śledzić.
Można nawet tam wydać takie zarządzenie, żeby tą paczkę dostarczyć do sąsiada
albo zostawić w jakimś konkretnym miejscu, albo wysłać do jakiegoś konkretnego punktu
właśnie odbioru paczek, albo na inny dzień przestawić.
Można tym zarządzać z apki.
Jest to dostępne. Bardzo przyjemnie się z tego korzysta.
No i kurier, który miał mi tą paczkę dostarczyć w domu mnie nie zastał.
Ja byłem wtedy w pracy, więc ciężko żeby.
No i tą paczkę dostarczył do punktu odbioru paczek.
No więc udałem się tam ostatnią sobotę. Byłem wtedy akurat z osobą widzącą,
więc w razie czego… Znaczy nie wiedziałem w ogóle, że to będzie dostępne,
więc poszedłem z osobą widzącą, bo już przygotowałem się na ekrany
…i różne inne atrakcje.
No i się okazało, że po pierwsze w tym budynku,
gdzie znajdują się te automaty pocztowe, są linie prowadzące,
które prowadzą do tychże.
A po drugie właśnie osoba widząca, która mi w tym pomagała,
coś sobie kliknęła na ekranie i nagle zaczęło gadać.
No i ja może opowiem od początku, jak ten proces powinien wyglądać,
jakbym się do niego zabrał, gdybym wiedział,
że w ogóle dostępność jakaś jest.
Mianowicie, jeżeli nie uda nam się tej paczki odebrać osobiście
i ona wyląduje w punkcie, to kurier zostawia nam aviso.
Aviso jest normalnie fizyczne, papierowe, leży sobie w skrzynce.
Taki kod aktywacyjny, czy ten kod do zeskanowania,
my też dostajemy w apce, w formie cyfrowej,
Dostajemy też fizycznie powiadomienie o przesyłce do skrzynki.
To powiadomienie, masz ścięty jeden róg.
Dzięki temu, że ten róg jest ścięty, to wiemy, jak sobie wyprofilować tę kartkę,
żeby znaleźć, czy żeby wiedzieć, w którym miejscu jest kod kreskowy,
który trzeba zaprezentować przed czytnikiem.
Z taką kartką udajemy się do punktu odbioru paczek.
Tam są automaty, podobne jak nasze paczkomaty,
tylko większe, trochę szersze, więcej jest tych skrzynek.
Skrytek.
No i teraz co powinniśmy zrobić? Oczywiście liniami prowadzącymi
znajdujemy sobie paczkomat.
Dotykamy, paczkomat ma ekran dotykowy, dotykamy gdziekolwiek na tym ekranie.
Następnie dotykamy, no właśnie, pod ekranem jest taki rządek
wyklejanych, wyklejanych takich dotykowych symboli.
Tam jest kółeczko, plus i minus. Plus i minus jest do zwiększenia,
zmniejszenia głośności, a kółeczko jest właśnie do aktywacji
przewodnika głosowego. Czyli nad tym kółeczkiem dotykamy ekranu.
i włącza się przewodnik i zaczyna nam opowiadać o tym, że to jest dostępny paczkomat
i że możemy go obsługiwać tak i tak, więc właśnie nie ma słuchawek,
więc wszystko idzie na cały regulator na głośnik.
No to nie jest jakiś duży problem, bo tam jakichś prywatnych informacji
ta synteza nam nie wyczyta.
No jedyne co to, nie wiem,
jak ktoś byłby bardzo czepliwy,
to mógłby się przyczepić, że to głośno i przeszkadza i tak dalej.
Ale my akurat byliśmy sami w tym pomieszczeniu, to był zresztą weekend.
No i jest prośba, żeby pokazać ten kod do czytnika.
I tutaj u mnie się przygoda niestety skończyła,
bo otrzymałem komunikat, że dla wskazanego kodu
nie są dostępne żadne przesyłki,
prosimy skontaktować się ze wsparciem technicznym, poczty itd.
Kiedy… Zresztą ten przewodnik głosowy,
jak się przez jakiś czas nic nie robi, no to mija jakiś tam czas,
i ten przewodnik głosowy się wyłącza.
I teraz, gdy przewodnik głosowy był wyłączony
i zeskanowaliśmy z osobą widzącą ten sam kod,
no to wyskoczył komunikat, że my tu stoimy przy stacji B,
a paczka jest w stacji A.
Więc trzeba było przejść do zupełnie innego paczkomatu,
w sensie w tym samym budynku, ale do innej maszyny
i ponowić całą procedurę.
Więc nie wiem, czy ten komunikat tutaj jakoś nie był dograny,
czy nie przewidzieli tego wariantu,
ale tutaj coś się wykrzaczyło.
Ale gdyby tak się udało, to po takim zeskanowaniu kodu
będziemy poproszeni o to, aby podpisać się na ekranie dotykowym.
I przypuszczam, że ten system przepuści absolutnie wszystko,
no bo nie wiem do końca, jak ten podpis mieliby zweryfikować
i jak ja miałbym ten podpis wykonać czytelnie na ekranie dotykowym.
No ale można coś takiego zrobić.
I następnie skrytka się otwiera
i tak jak InPost np. podaje lokalizację naszej skrytki,
czyli która od lewej, która od góry i tak dalej.
Tak poczta austriacka poszła w klikanie,
czyli ta paczka, ta skrytka będzie wydawać co parę sekund
taki tykający dźwięk, takie…
I my musimy do tej skrytki podejść po tym dźwięku,
wydobyć z niej paczkę i zamknąć drzwiczki.
I wtedy to tykanie milknie po prostu.
No i tak wygląda odbiór.
Mi się wydaje, że apką byłoby prościej z jednej strony
i fajnie, że to jest w InPoście na przykład tak rozwiązane.
Czy w paczkomatach staje się Allegro też?
Natomiast fajnie też, że jest alternatywa dla osób skomplikowana, pokrętna,
ale alternatywa dla osób, które właśnie smartfona nie mają, nie chcą, mają blindshella,
cokolwiek, telefon się rozładował i można.
Ja tu widziałbym potencjał też w na przykład podpisie elektronicznym,
bo skoro to jest państwowa usługa i państwo wprowadziło taki podpis kwalifikowany,
no to czemu by tego nie wykorzystać?
Tak można by rzeczywiście potwierdzić, że ja to ja, podpisałem się moim kwalifikowanym podpisem,
a nie udawałem, że coś tam na ekranie dotykowym próbowałem.
No także zobaczymy, może to też w tą stronę pójdzie, może się rozwinie.
Fajne są właśnie te klikające skrytki, fajnie, że w to poszli,
bo opisy są fajne i to da się znaleźć, zwłaszcza jak te paczkomaty są troszkę mniejsze.
No ale przy tych większych takie klikanie jest jakąś myślę pomocą.
No i zobaczymy, może jak następnym razem otrzymam właśnie jakieś awizo i będzie paczka do odebrania, to już sobie z tym poradzę, no bo będzie to wszystko w jakiś sposób udźwiękowione.
Swoją drogą też czytałem o tym, że paczkomat, znaczy nie paczkomat, tylko butelkomat, to automat do zwrotu butelek, tych właśnie czy szklanych, czy plastikowych, które są objęte kaucją,
to Słowacy wymyślili sobie właśnie, że mają automaty w różnych supermarketach
i na tych automatach jest kod QR. Napisane jest QR w braillu.
Jest też kod zaznaczone, gdzie to jest.
I możemy telefonem zeskanować kod i trafimy na instrukcję audio,
jak z takiego butelkomatu korzystać, jak tam te butelki zwrócić.
To jest fajne, fajnie wiedzieć w takich rzeczach,
bo na przykład w Niemczech takie butelkomaty stoją
No i ja kiedyś próbowałem z takiego skorzystać, no i chciałem sobie wypłacić kaucję, czy tam bon, bo to akurat w Lidlu, bon na zakupy w Lidlu o wartości tej kaucji, a zamiast tego przekazałem kwotę tej kaucji na Fundację Lidla.
Nie było to moim zamiarem, ale coś sobie na ekranie dodatkowym znowu poklikałem i osiągnąłem mnie to, co chciałem.
W Austrii chyba też nie ma specjalnie, przynajmniej ja nic nie wiem o jakimś systemie dostępności takich butelkomatów.
Może kiedyś będzie mi dane przetestować to na Słowacji.
Tak, i Pawle, skoro już jesteś przy głosie, to został jeszcze jeden news taki oddzielny.
A propos Cobalt Tools.
Zgadza się. I tu znowu wracam do naszego Hackerspace’a.
Odbywa się tam co miesiąc takie spotkanie pod nazwą Show & Tell.
Bardzo lubię format tego spotkania, bo to jest coś, co ja naprawdę lubię.
To jest proste w przygotowaniu.
nie wymaga specjalnie właśnie jakiejś wielkiej organizacji,
a można z tego wyciągnąć naprawdę dużo fajnych informacji,
bo jest to spotkanie, na które przychodzą ludzie
i wymieniają po prostu, czy informują wszystkich zebranych
o czymś ciekawym, technologicznym, co ostatnio znaleźli.
Czyli trochę tak, jak my robimy poniekąd w tyfloprzeglądzie
do pewnego stopnia, czyli ja znalazłem w zeszłym tygodniu,
czy znalazłem, czy powiedzmy zakupiłem, to urządzenie krótkofalarskie.
To pokażę Wam wszystkim, pogadamy o tym, zaprezentuję Wam,
może coś poradzicie, spoko.
Ktoś inny stwierdził, no ja to znalazłem,
bloga, którego autor pisze o różnych krojach pcionek.
Mnie to interesuje.
No i puch, otwieramy projektor, pokazujemy na projektorze, jest blok, fajnie.
A ja to znalazłem alternatywę do GitHuba. Nazywa się Codeberg.
No i gadamy przez jakiś czas o Codebergu.
Ja pokazałem tam też kolekcję naszą od dzwonków, czyli Fontons.
Różne ciekawe rzeczy tam ludzie wymieniają. Duże co druku 3D.
Jakieś takie też kwestie związane z administracją Linuxem, co kogo interesuje.
I wszedł jakimś sposobem temat, i to często się pojawia tam właśnie w tych kręgach,
jakichś rozszerzeń do ułatwiania sobie pracy z YouTube’em w przeglądarce,
jakieś tam nieoficjalne programy do YouTube’a.
I ktoś nagle rzucił hasło, no słuchajcie, jest Cobalt Tools.
Bardzo fajny tam open source’owy, otwarty, webowy pobieracz do różnego rodzaju właśnie wideo.
Oni wiedzieli, że ja jestem na spotkaniu, więc stwierdzili, że no,
Ja nie wiem, czy to jest dostępne z czytnikami ekranu, ale to sobie sprawdzisz.
No ja sprawdziłem. To jest dostępne. Jeszcze jak?
Ten program ma dwie funkcje, bo ma pobieranie właśnie wideo i REMUX już istniejących plików,
np. mp4, czyli ponowne przekodowanie i tam zsynchronizowanie obrazu z dźwiękiem itd.
Przełączanie się między tymi funkcjami i jeszcze kilkoma typu tam
Wesprzyj nas, o nas i tam aktualizacje, to są zakładki,
więc można spokojnie tam sobie nawet strzałkami przyłączać
w trybie formularza. Pole edycji ładnie podpisane.
Link, aby wprowadzić link do wideo. Przycisk jest rozwijany,
w jakim sposobie chcemy to pobrać, czy chcemy pobrać całe
wideo, czy tylko audio, czy sam obraz. Są też ustawienia,
można w nich ustawić sobie wszystkie rzeczy,
A jak audio, to jaka jakość? Jaki bitrate? A jak wideo, to jaki bitrate?
A czy ma pominąć bloki sponsorskie? A czy chcemy napisy, czy nie?
Chociaż nie wiem, czy napisy… Chyba napisy też są.
Jakieś tam ewentualnie proxy, coś tam inne jeszcze.
A może byśmy chcieli skorzystać z konwertera nie na tym domyślnym serwerze,
tylko na naszym? Możemy sobie postawić swój.
W ogóle cała ta strona jest open source, więc można sobie w ogóle to wszystko
postawić samemu.
No i jak już mamy to wszystko ustawione,
to w tym polu edycji wpisujemy link
tam do jednego ze wspieranych serwisów.
Klikamy Enter i pokazuje się okno zapisywania pliku.
Także jest to z tego typu usług właśnie webowych.
Jeżeli nie chcecie czegoś instalować na komputerze
albo chcecie z urządzenia mobilnego czy jakiegoś notatnika prajlowskiego
No to chyba prostszej w konstrukcji i bardziej dostępnej strony nie znam,
zwłaszcza, że autorzy wymieniają w liście zmian, że poprawiają dostępność
pod czytniki ekranu. I w ogóle w opisie tego projektu jednym z założeń jest to,
że to będzie strona dostępna. Także polecam, bo naprawdę jest to
przeprościutkie narzędzie. Opcje te takie najbardziej podstawowe różne ma.
No pewnie można by tam mu coś pododawać, może z czasem się tam nowe rzeczy też pojawią,
warto na GitHubie jakieś tam im zgłoszenia otwierać.
Natomiast, no, do tego, żeby po prostu coś sobie pobrać, jak pomyślę o tych różnych innych stronach,
gdzie trzeba się przebijać przez jakieś reklamy, a to trzeba coś tam jeszcze,
po nagłówkach szukać, nie wiadomo czego, to ta strona jest tak prosta, jak się tylko da.
i myślę, że wielu z Was się ona spodoba.
Swoją drogą, tak też na kanwie tej dyskusji wyszedł temat takiego narzędzia jak Parabolik.
I Parabolik to jest też narzędzie na bazie YTDLP,
czyli pobieranie z niesamowitej ilości źródeł różnych właśnie materiałów audio czy wideo,
które jest w QT. W zasadzie jest dostępne.
Jedyny problem, jaki z nim jest, to jest to, że różne kontrolki typu pola edycji, pola wyboru nie są powiązane z etykietkami,
więc na przykład chodzimy tabem i nie wiemy, do czego jest dane pole, ale jak sprawdzimy nawigacją obiektową, to jak najbardziej się tego dowiemy.
W NVIDIA, a w JAWSie to kursorem JAWS. Ale poza tym to wszystko jest czytane, po wszystkim da się nawigować i nawet jest to interfejs po polsku.
Pewnie też zgłoszę za jakiś czas te kontrolki,
które nie są powiązane z etykietkami,
że nie są programatycznie przypisane etykiety do tych kontrolek.
Mam nadzieję, że autorzy to naprawią,
bo nie wydaje mi się, że to by była jakaś ciężka zmiana do wprowadzenia.
No i też byłby kolejny fajny i też rozwijany
nie tylko pod kątem niewidomych, ale pod kątem wszystkich,
więc jest szansa, że wsparcie techniczne potrwa trochę dłużej.
Programik do pobierania różnych ciekawych materiałów.
Także cobalt, przez t na końcu, kropka, t-o-o-l-y-s-y.
Fajna strona, myślę, że warto sobie ją obejrzeć.
Ale strasznie wkurzająca jest lista wspieranych usług,
bo to jest napisane po prostu znaki bez spacji, z nazwami.
W sensie, że wszystko jest jednym słowem, wszystkie nazwy.
Tak, to jest błąd i ktoś na Mastodonie już też na to zwrócił uwagę
i nawet chyba wypełnił, czy planował wypełnić zgłoszenie na GitHubie projektu.
Więc miejmy nadzieję, że to jest tylko niedopatrzenie ze strony autorów
i po prostu lepiej to sformatują.
Tak.
To
teraz
przechodzimy do pakietu
wniosków różnych i skoro
Paweł już się tutaj nagadał
to może
zacznijmy, skoro już
jest 22.
I jeden po!
Zmieścimy się idealnie.
Tak, to może faktycznie
zacznijmy od tych nowości z gier.
Dobrze, no to w takim razie jeśli chodzi o gry, no to trochę się podziało przez dwa tygodnie,
bo w tym tygodniu mniej było. Trochę tych newsów się nam nazbierało.
Kilka nowych gier się pojawiło, mamy też kilka aktualizacji.
Zaczynając od nowych gier, mamy coś dla ludzi, którzy mają praktycznie każdą platformę,
Bo jest to gra, która pojawiła się i na Windowsie, i na Macu, i na Linuxie, i na Androidzie.
Aczkolwiek na Androidzie, ponoć tutaj autorzy rekomendują dla niektórych gier klawiaturę.
Mówię tutaj dla niektórych gier, dlatego że gra nazywa się Mini Games Hub.
I jak tutaj można się domyślić z nazwy, jest to zestaw takich drobnych minigier.
Jakie tutaj mamy gry?
Mamy tutaj na przykład taką grę, w której po prostu sobie chodzimy po planszy i musimy tam różne rzeczy zabijać, jednocześnie lecząc naszą postać i ją ulepszając.
Mamy też prostą grę w łucznictwo, w której po prostu trzymamy spację i ją puszczamy, kiedy dźwięk jest na środku.
Mamy grę w oczko i była jeszcze jedna gra, też taka prosta, która mi gdzieś uciekła z pamięci.
Mniej więcej, nie wiem czy to jest pierwszy projekt tego zespołu.
Generalnie, dźwiękowo jest zrobione całkiem fajnie.
Jest to zrobione w silniku NVGT, stąd ta wieloplatformowość, po prostu wszystko.
Ta gra jest dostępna na wszystkie platformy, które NVGT wspiera.
Testowałem na Macu, działa, tylko trzeba sobie tam w terminalu
Najpierw wklepać polecenie chmod spacia plus x i wkleić ścieżkę do binarki,
dlatego że po prostu na Windowsie spakował i wtedy tam się gubi jeden atrybut.
I przez to Mac na początku tego nie uruchomi.
Ale kiedy to zrobimy, to po prostu to powinno pójść.
Na Windowsie pewnie takich problemów nie ma.
Na Androidzie, tak jak wspominałem, autorzy zwracają uwagę,
że niektóre gry mogą wymagać klawiatury.
w dokumentacji jest to opisane, do których gier klawiatura może być potrzebna.
Pewnie tutaj głównie chodzi o tą grę, w której chodzimy sobie po tej planszy, bo tam
tych klawiszy jest całkiem sporo, bo mamy inwentarz i nawigację i tam parę innych rzeczy,
więc chyba do tej gry jest klawiatura potrzebna, a z innymi chyba aż takiego
problemu być nie powinno.
Grę też można tłumaczyć, natomiast chyba polskiej wersji z tego co wiem na ten moment
Nie ma. Ale kto wie, czy za jakiś czas się nie pojawi.
Wszystko się nam zapisuje, bo też mamy w grze taki sklep, w którym możemy np.
różne, jakieś mikstury, które naszą postać będą uzdrawiać, sobie dokupywać.
Dokumentacja jest wbudowana w grze.
I tak jak wspominałem, gra jest wieloplatformowa i w pełni
Oczywiście będzie link do tego w komentarzu.
Natomiast, jeśli ktoś lubi gry strategiczne i nie boi się czasami skorzystać właśnie z jakiegoś dodatku do tłumaczenia,
natomiast tutaj na szczęście jakiejś bardzo skomplikowanej fabuły nie będzie, więc myślę, że pewnie dałoby się też nauczyć bez dodatku, nawet jeśli sobie zmienimy syntezator.
Mamy kolejną grę od chińskiej społeczności.
Jest to rozbudowana gra w rewersji czy othello.
Jak to woli, żeby właściwie rewersji było pierwsze.
Othello jest wariantem rewersji, w którym mamy już planszę w pewnym stopniu przygotowaną.
Dla tych, którzy nie grali, rewersji jest to gra, w której gramy na takiej planszy
8 na 8, mamy pionki w dwóch kolorach, białym i czarnym i generalnie naszym
zadaniem jest ustawianie tych pionków i to wygląda tak, że jeśli jakiś pionek
jest z dwóch stron otoczony, albo nawet cała linia pionków jest otoczona z dwóch
stron przez pionki przeciwnika, no to przeciwnik te wszystkie pionki
przejmuje, one wtedy zmieniają kolor, czyli powiedzmy gdybyśmy mieli dwa białe
I drugi gracz położy z jednej strony tych dwóch czarny pionek i z drugiej, no to te białe pionki ze środka też zmienią kolor na czarny.
No i celem gry jest po prostu doprowadzenie do sytuacji, kiedy jeden gracz będzie miał tych pionków więcej lub wypełni całą planszę,
albo po prostu nie będzie nigdzie wolnego pola, gdzie można wolny jakiś ruch wykonać.
Rewersji, o Boże, Othello różni się od rewersji tym, że zaczynamy chyba z dwoma po czterna mapiąkami na początku, teraz na 100% sobie nie przypomnę.
Natomiast z tym się to różni, a jeśli chodzi o chiński wariant tej gry, no to wspiera on zarówno mowę przez ZDSR, przez NVDA oraz przez schowek.
I jeszcze Sapi.
Mamy też rozbudowaną sztuczną inteligencję,
przeciwko której gramy.
Klawiszami Shift, Page Up, Page Down
możemy dostosować jej poziom trudności.
Także jeśli lubicie takie gry bardzo strategiczne,
a najednocześnie bardzo proste w obsłudze,
bo tak naprawdę tutaj generalnie
wchodzimy strzałkami po planszy
Przy Enter’em ustawiamy nasze pionki, więc to granie jest bardzo skomplikowane.
Od jednej strony jest, z drugiej nie jest, jeśli chodzi o interfejs.
To myślę, że spokojnie można się tą grą zainteresować.
A teraz przechodzimy do różnych aktualizacji.
I trochę tych aktualizacji mamy.
Na przykład Slay the Spire, czyli taki pierwszy, bardzo popularny roguelike, który doczekał się moda dostępnościowego, okazuje się, że cały czas ma się dobrze dzięki społeczności, która cały czas tworzy do niego nowe modyfikacje.
Jedną z takich modyfikacji jest mod Slay the Spire Biomes, który dodaje do gry różne biomy.
Biomy, czyli podczas kiedy będziemy nawigować sobie po tej mapie, wspinać się w coraz wyższe poziomy tej spirali,
będziemy napotykać różne biomy, różne modyfikatory, które będą nam dosyć znacząco zmieniać rozgrywkę.
Bo możemy np. napotkać np. miasto gremlinów, jakieś jaskinie zamieszkiwane przez różne potwory z tej gry.
To będzie zamieszkiwane też przez inne klasy, w którymi możemy grać.
I dzięki temu np. tam możemy znaleźć sklep, w którym będziemy mogli kupić karty od tej klasy.
i w ten sposób sobie te kombinacje łączyć.
Będziemy mieli różne zmodyfikowane karty, jakieś nowe relikty, nowe potwory.
Tych modyfikacji jest kilkadziesiąt, z samych biomów jest ponad trzydzieści.
I co ważne dla nas, w najnowszej aktualizacji tego moda,
która ma się pojawić niebawem, to będzie dla nas wszystko dostępne,
no bo autorzy tego moda zaktualizowali go w taki sposób,
żeby on był w kompatybilne z modem Say the Spire,
czyli modem, który po prostu nam tą grę czyta.
Więc jeśli dawno nie graliście w Say the Spire, szukacie powodu, żeby do tej gry
wrócić, no to myślę, że ten mod
może być naprawdę dobrym powodem,
żeby sobie tą grę odświeżyć.
I to nie jedyna gra, która ostatnio
prosi się, żeby do niej wrócić, bo kolejną grą,
która dostała dużą aktualizację i ta aktualizacja już jest dla nas jak najbardziej dostępna,
jest gra Ball Bouncer.
I Ball Bouncer jest bardzo prostą grą, tak teoretycznie,
w której po prostu mamy piłeczkę, którą sobie odbijamy
i tą piłeczką musimy niszczyć różne obiekty, które na planszy się pojawiają.
Chodzi o to, żeby tą piłeczkę utrzymać po wietrzu jak najdłużej,
…nabić jak największy wynik, nisząc jak najwięcej tych obiektów zanim ta piłeczka po prostu nam spadnie całkowicie.
Stopniowo też możemy odbudowywać różne umiejętności, które pozwalają nam uderzać tą piłeczkę jeszcze wyżej, jeszcze szybciej, jeszcze większą siłą rażenia.
I gra doczekała się ta bardzo dużej aktualizacji, wersji 1.3.
Wczoraj to zostało dodane kilka nowych trybów.
I te tryby musimy sobie odpakowywać po kolei.
I to są tryby, które będą testować różne nasze umiejętności.
Albo odpowiedniego celowania, gdzie tą piłaczką zamiast celować we wszystkie obiekty,
mamy jedną bramkę, do której musimy trafić.
Mamy grę, w której musimy tą piłaczkę utrzymywać jak najdłużej.
Tych trybów samych w sobie jest cztery albo pięć chyba.
Każdy z nich ma jeszcze dodatkowe rzeczy, które możemy sobie odblokowywać tylko dla tych trybów.
I każdy z nich ma swoją walutę, którą będziemy, grając w dany tryb, zdobywać właśnie, żeby te rzeczy odblokowywać.
Także jeśli dawno w tą grę nie graliście, albo jeszcze nie graliście, warto sobie tą produkcją się zainteresować,
Bo to jest gra z gatunku prostych, ale zarazem bardzo, ale to naprawdę bardzo wciągających.
To był World Bouncer. I teraz jeszcze tutaj mamy coś dla tych, którzy później chcieliby sobie po graniu odkrężyć.
Ale może też niekoniecznie odchodzić od tematu gier.
Bo oto ktoś postanowił stworzyć duże reprezentatorium nagrań związanych z grami audio.
Jak duże? Wystarczy powiedzieć, że to reprezentatorium w tym momencie ma ponad 270 GB, spokojnie nie musimy ściągać wszystkiego na raz.
Natomiast znajdziemy w nim praktycznie wszystkie nagrania jakkolwiek związane z grami audio od wielu twórców.
I znajdziemy tutaj wszystko od m.in. tego kanału PK13,
o który czasami pytacie, w którym ja brałem udział,
ale też kończąc np. na archiwalnych recenzjach
Kaliego Saperdzi z Main Menu,
czy podcastów z Blind Kulteka, Luka Hiłyta,
czyli osobę, która może być znana ludziom,
którzy są na forum adiogames, podpisuje się jako Dark.
Tutaj też takie rzeczy znajdziemy.
Stare podcasty Liam’a Erwena, na przykład.
Dużo nowszych kanałów, które pojawiły się dziś na YouTubie.
Nagrania Raula Galagosa, to znów jest moje dzieciństwo.
Tutaj przechodził większość gier, na przykład o GMA.
I tutaj też jego nagrania znajdziemy.
Tak że tutaj zarówno znajdziemy ogromny kawałek historii,
Tak jak ostatnio mówiłem o Blind Kick Zonie, tutaj mamy trochę inną sferę związaną z rozrywką,
ale też dużo całkiem współczesnych nagrań nawiązujących do najnowszych produkcji, które się pojawiły.
I na koniec informacja dla tych, którzy grają w Warshowu, bo trochę was, z tego co wiem, jest.
Mamy w grze uroczystości związane z Dniem Świętego Patryka,
W których to możemy zdobywać cztero list na koniczyny, co ciekawe, żeby te koniczyny zdobywać, no to albo musimy walczyć przeciwko innym graczom na zakładce podziemia lub po prostu zostawić grę otwartą na ekranie eksploracji i wtedy stopniowo będziemy te cztero list na koniczyny zdobywać, co potem możemy z nimi zrobić na zakładce bohater, możemy je sprzedać, możemy je dać do dotacji i wtedy zostaniemy ogromny zastrzyk punktów doświadczenia.
które nam pomoże bardzo szybko zdobyć kolejne poziomy.
W ogóle samo to wydarzenie powoduje,
że w wielu wydarzeniach zdobywane doświadczenie
jest chyba przynajmniej podwajane, jak nie potrajane w niektórych sytuacjach.
Tak że jeśli chcielibyście nabić sobie poziom…
Potrajane chyba teraz. Nawidziałem 300%.
No właśnie, no właśnie.
To jest jakieś szaleństwo.
To jest szaleństwo, które będzie trwało jeszcze kolejne dwa dni,
Więc jeśli chcecie rozwinąć trochę waszą postać,
to jest dobry moment, żeby sobie tę grę otworzyć.
Nawet jeśli nie gracie, to podłączyć telefon do ładowarki,
zostawić ewentualnie, jak ktoś ma Maca,
to sobie na Maca ściągnąć tę grę i zostawić otwartą, bo można.
I po prostu to może być dobry moment, żeby rozwijać swoją postać,
czy to tworząc jakieś przedmioty,
czy to właśnie walcząc przeciwko innym graczom,
czy to wchodząc na przykład do labiryntu,
bo tego doświadczenia po prostu zdobędziemy dużo więcej.
No i na koniec myślę, że też warto przypomnieć, skoro mówimy o takich ograniczonych uroczystościach,
tak jak informował nas Patryk wcześniej, dla tych, którzy grają w Hearthstone’a,
warto dołączyć do Discorda Hearthstone Access i tam znajdziemy na kanale giveaways
konkurs, w którym można wygrać kilka zestawów do nadchodzącego rozszerzenia,
które oficjalnie pojawi się 25 marca.
Gdybyśmy nie chcieli kupować sobie kart z tego rozszerzenia,
to warto tam wysłać wiadomość, że chcielibyśmy wziąć udział w losowaniu.
Kto wie, może w środę wieczorem to właśnie wy zostaniecie w tym losowaniu.
Tam chyba nawet będą dwa albo trzy losowania.
Więc może w którymś z tych losowań uda wam się taki zestaw wygrać.
To prawda.
To oczywiście nie wszystkie pakiety, nowości, jakie mamy w Tyflowieściach.
Pawle, co nowego we wtyczkach DNVDA?
No, są dwie wtyczki, które w tym tygodniu chciałem Wam przedstawić.
Pierwsza to jest poniekąd powrót, bo wtyczka istniała już w 2015 roku,
ale teraz została odnowiona i jest dostępna w sklepie z dodatkami.
Jest to wtyczka autorstwa Christophera Totha i nazywa się ona Jump to Window.
Wtyczka ma dość ciekawe zadanie, bo wtyczkę wywołujemy skrótem NVDA
zamknięcie nawiasu okrągłego, czyli w naszym przypadku to będzie pewnie Shift 0.
I otwiera nam się okno, w którym wpisujemy fragment tekstu,
naciskamy Enter i jeżeli zostanie znalezione na naszym pasku zadań
Okno, które w swoim tytule zawiera tenże wpisany przez nas tekst albo wyrażenie regularne, można też wpisać,
to zostanie ono tego okna przeniesienie.
To jest kolejny fajny sposób na to, jak szybko dotrzeć do jakiegoś okna,
zwłaszcza jak w takich oknach jest gdzieś dużo informacji i my potrzebujemy jakiegoś konkretnego okna z konkretnymi informacjami.
Często tak się dzieje np. w oknach jakiejś konsoli, ale nie tylko,
Chociażby przeglądarka, jeżeli używamy okien zamiast zakładek,
albo nawet jakieś projekty w różnego rodzaju programach,
czy to jakiś reaper, czy office, czy cokolwiek.
Można sobie szybko po konkretnym tekście przeskoczyć, to jest jedno.
A drugie, wariacja na temat, wtyczka Whatsapp Image Describer,
Czyli dodatek, który oczywiście po uprzednim wprowadzeniu klucza API
do jednej z wspieranych usług, a jest nią ChatGPT lub Cloud lub Gemini,
pozwala nam za pomocą skrótu alt i na opisywanie zdjęć wysyłanych do nas
na Whatsappie, no a za pomocą oczywiście aplikacji Whatsapp for Desktop.
No i to tyle. Aczkolwiek spodziewam się, że niebawem będzie więcej,
Patrząc na GitHuba widzę, że różne ciekawe wtyczki są w produkcji,
ale to może jak już wyjdą jakieś wersje finalne, to damy znać.
Czy ta wtyczka do przeskakiwania do okien wspiera wirtualne bluepity?
Dobre pytanie, ale może być, że chyba niestety nie, ale nie wiem.
Okej.
Ja w końcu nie wiem, chyba nie powiedzieliśmy o nowościach na CSUN.
Znaczy tydzień temu mówiliśmy trochę.
A bo tutaj widzę też w notatkach.
Tak, bo jeszcze jest druga część, no bo konferencja zaczęła się w zeszłym tygodniu w poniedziałek, skończyła się dopiero w piątek,
A my nadawaliśmy w środę, więc ciężko, żeby tych newsów było jakoś bardzo dużo.
Przepraszam.
No a tutaj Double Tap nas zasypał relacją, która dzień pod newsiem odbywała.
No i trochę tych rzeczy było.
A co takiego konkretnie było?
Byli różni wystawcy, głównie sprzętu i też oprogramowania, ale były też firmy, że tak powiem mainstreamowe.
I taką mainstreamową firmą było Sony, które oczywiście pokazywało rzeczy, które już mieli, czyli tego robota AIBO chyba się nazywa,
który jest robotem do wsparcia emocjonalnego, mówiące aparaty cyfrowe, mówiące telewizory z Androidem TV,
PlayStation i ten adaptowalny kontroler.
Ale jest też coś, o czym nie wiedziałem,
i to chyba działa na ten moment tylko w Stanach,
że w różnych sklepach z elektroniką,
jeżeli dobrze zrozumiałem,
rozstawiane są takie kioski,
czyli takie punkty informacyjne o sprzętach Sony,
w których można w ogóle uzyskać audiodeskrypcję
tych urządzeń, które tam oni mają w sprzedaży.
Coś takiego, no nie wiem, takie coś jest.
Był Orbit, to znaczy Orbit Research i dowiedzieliśmy się trochę więcej o Orbit Play, Jerze.
A mianowicie, że no koło lipca powinien on zacząć być już rozsyłany ludziom, którzy
sobie go wcześniej zamówili, to ma być globalne jakby uruchomienie produktu, start
na, może nie na całym, że aż świecie, ale na tych kilku rynkach, na których firma
Orbit Research już się rozgościła. To były dwa rzeczy, które początkowo
rzeczywiście były rozwijane tylko w Indiach, bo mieli już tam część swoich
oddziałów rozwoju i prowadzenia badań właśnie w Indiach i stwierdzili też,
Po pierwsze jest rynek, jest popyt na odtwarzacze DayZ, ale nie ma niestety producentów, którzy by takie tworzyli.
Dostosowanych oczywiście i cenowo i też przez oferowane usługi do tego rynku właśnie w Indiach.
I dowiedzieliśmy się też, że właśnie Indie poza tym też mają taką swoją dumę narodową, że chcieliby mieć swoje produkty tworzone u nich na miejscu.
No więc postanowiono wyprodukować tam w Indiach Orbit Player’a,
przetestować na tamtejszym rynku, po czym udostępnić go całemu światu.
Orbit Player ma kosztować około 300 dolarów.
Także no, niedużo, nie mało.
Myślę, że to jest gdzieś w tych granicach cenowych Oriona, pewnie.
Nie wiem, może.
No, zapewne tak. Pewnie po wszystkich cłach, podatkach,
No to pewnie w marszach, no to u nas podejrzewam, że to może być koło dwóch tysięcy.
No i głosami, które są w tym urządzeniu, są vocalizerem.
Także to jest to.
Orbit Optima, czyli ten laptop na bazie frameworka z wbudowaną linijką braillowską,
bez ekranu i tam z udźwiękowieniem i z wymienialnymi częściami opóźni się znów o rok.
Tam jakieś były problemy z pozyskaniem środków na dalszy rozwój, optymalizacja oprogramowania
i tam tego sprzętu i tak dalej. No i przedstawiciel WEN-K też stwierdził, że mają nadzieję,
Mam nadzieję, że za rok, o tej porze, ewentualnie jeszcze trochę dalej w przyszłość, minimalnie, będą już pełne półki w sklepach ich produktów i tak dalej.
Także, no znowu się to opóźnia, miało być w tym roku, już miało być w zeszłym, teraz ten, więc to się wszystko powoli, powoli, powoli opóźnia.
Już chyba od dwóch lat zapowiadają ten produkt, także będzie ciekawie.
Pozostaje mieć tylko nadzieję, że będą aktualizować
te konfiguracje laptopów, na bazie których powstają.
Oby. No tak. To prawda.
Także zobaczymy.
Glidens. Glidens również był.
No i przedstawiciel Glidens stwierdził,
że już są na etapie finalizacji
konceptu sprzętowego, czyli jak to ma wyglądać
ostatecznie,
jak to się ma prowadzić i twierdzą, że są zadowoleni użytkownicy z tego,
że bardzo są pod wrażeniem tego, jak łatwo się tym steruje,
jak intuicyjnie są przez to prowadzeni. Demonstracje liczyli w tysiącach,
nie wiem czy to było 8 czy 12 tysięcy i 800 osób to są ci gliders,
czyli ci jakby tacy wcześniej użytkownicy, którzy dla nich tam jakieś rzeczy testują
Więc naprawdę szeroka jest ta grupa i z rozmachem jest to robione.
No i zobaczymy. Teraz są na etapie już…
będą na etapie dopieszczania gdzieś tam tej strony software’owej, tego oprogramowania.
Także zobaczymy, jak daleko z tym pójdą.
Był Dolphin i Dolphin pokazywał standardowe rzeczy,
Supernova, Guide Connect, Easy Reader.
No i mają też, to chyba nie jest nowe, ale mają też swój kiosk.
Jakby swoje oprogramowanie do tych automatów samoobsługowych,
różnych tak zwanych kiosków.
Tylko że u nich w przeciwieństwie do… znaczy no oprócz tego,
że można strzałkami sterować, tak jak na tych z Whispero,
tam gdzie jest Joss For Kiosk, to też Dolphin pozwala
na wywoływanie głosem różnych tam rzeczy, też przy asyście chyba jakiegoś AI,
tak że mamy, no pokaż mi na przykład wszystkie burgery w menu, tak, także to takie.
W ten sposób jest to rozwiązane.
Lighthouse Tech ze Szwajcarii pokazywał okulary, chyba o nich nawet jakoś mówiliśmy.
Nie wiem, czy ty, Paulino, mówiłaś? Ktoś, ktoś mówił o tej firmie.
Jaka firma? Lighthouse Tech ze Szwajcarii.
Ja coś wspominałam kiedyś o Dothlumen, ale to nie to.
Nie, to coś innego. Ale też takie właśnie okulary, które mamy na głowie i wibrują nam, gdzie jest przeszkoda.
Czyli wibrują nam intensywność wibracji, to jest odległość, a kierunek jest dwa kierunki, lewo lub prawo.
Więc albo przeszkoda jest z lewej, albo z prawej, albo centralnie przed nami.
Jak jest centralnie przed nami, to wibrują obydwie strony.
A jak jest z konkretnej strony, to wibruje ta konkretna strona.
No coś takiego. No kosztowałaś 1500 dolarów, także no.
I kto jeszcze był? No był oczywiście NV Access.
I oni opowiadali troszkę o tym, co ma się pojawić w NVDA 2025.1.
No i o części z tych nowości już mówiliśmy, bo był
był NVIDIA Remote, znaczy był, no jest i będzie wprowadzony,
o tym, że przyspieszą syntezatory, o tym, że dodano osobne wsparcie
w SAPI 5 też dla wykrywania języków i dla przyspieszania,
niezależnie od wszystkiego innego tych głosów.
No, ale to, o czym na przykład nie mówiliśmy,
to automatyczne aktualizowanie dodatków w tle.
To jest też funkcja, którą już przepuszczono
i rzeczywiście ma to być tak, że możemy sobie wybrać wariant,
w którym dodatki będą się aktualizowały w tle, nie będzie już wyskakiwało to okienko z aktualizacjami,
tylko po prostu te aktualizacje będą się nam ściągać.
Poza tym ma dotrzeć też, i to są już plany na dalsze części tego jeszcze,
znaczy jest już wsparcie matematyki w PDF-ach, to już jest.
Wsparcie dla podświetlania fragmentów tekstu na stronach internetowych.
Jak to działa? Takim najprostszym przykładem jest Google.
Na Google możemy sobie coś wyszukać i pokaże nam się ten wynik wyszukiwania,
ten taki fragment z odpowiedzią, chyba to się nazywa.
I tam widzimy ten fragment, który najbardziej powinien dotyczyć tego,
co my wpisaliśmy, bez jakiegoś tam kontekstu.
I pod kolejnym nagłówkiem jest link do strony, z której ten fragment pochodzi.
I teraz my możemy wejść na tę stronę i wizualnie ten fragment,
który był pokazany w tym wycinku na stronie jeszcze Google,
do niego jest przewijany jakby podląd i osoba widząca już od razu widzi
ten fragment tekstu, który najbardziej powinien ją interesować
z uwagi na to nasze wyszukiwanie.
No, dla czytników ekranu do tej pory to nie było możliwe,
A teraz powinno to już zacząć działać.
Także no, może to być potężne, zwłaszcza, że np. taki Chrome pozwala na to, żeby tworzyć linki,
które prowadzą nas do konkretnych fragmentów tekstu na stronie.
No i to może być ciekawe, bo można w ten sposób robić np. zakładki w jakichś tam tekstach
albo komuś znajomemu podrzucić tekst w jakimś konkretnym fragmencie
albo programatycznie przenosić fokus do różnych elementów,
jak potrzebujemy zarządzać Focusem, żeby na przykład po naciśnięciu przycisku
Focus, czyli nasz screen reader, przeskoczył do jakiegoś konkretnego
gdzieś tam na główka, na stronie, kawałek dalej.
Drugi przykład to są te Deep Research różne.
Na pewno w czacie jest i na pewno w Geminaju
też takie podświetlenie jak Google ma.
O, no to mogłoby to być ciekawe, tak że powinno to
powinno to wejść.
Plany są dalekosiężne, bo
Jedną z rzeczy, które już zapowiedziano, że NVIDIA planuje i rozglądają się za sensownym rozwiązaniem,
no to jest istotnie jakieś ich AI do rozpoznawania obrazów.
Także myślą nad tym, patrzą na różne opcje i mają to definitywnie w planach.
Be My Eyes. Be My Eyes wypuścił komunikat prasowy o dwóch nowych współpracach.
Bo Be My Eyes aktualnie ma być już dostępny jako taka asystata profesjonalna,
czyli tam, gdzie można szukać pomocy różnych firm.
Tam do tej pory był Microsoft, Google, Spotify, Sony i tak dalej.
To mają dołączyć linie lotnicze Emirates.
Czyli jeżeli chcielibyśmy tymi liniami polecieć, to są te linie z Dubaju,
to możemy skontaktować się przez Be My Eyes z przedstawicielem Emirates
I możemy wszystko, od zakupu biletu przez jakieś informacje takie typowo techniczne, czy jakieś organizacyjne, po nawigację po lotnisku.
Można załatwić właśnie przez Emirates. No i też dodano lotnisko. Jest lotnisko jedno, które Be My Eyes wspiera.
Jest to lotnisko Leonardo da Vinci, Fiumicino w Rzymie.
Duże międzynarodowe lotnisko, można tam skorzystać z Be My Eyes i uzyskać pomoc przez smartfona w nawigacji właśnie po terminalach.
Poza tym też LG jakieś swoje rozwiązania dostępnościowe, jakieś takie ułatwiające korzystanie ze sprzętów zademonstrowało.
No i to na ten moment tyle wiadomości, które zebrałem.
No bardzo możliwe, że jeszcze z innych podcastów i z innych źródeł z czasem pojawi się tego więcej.
Tymczasem odbieramy telefon, bo się słuchacz naczekał, ale się doczekał.
Kto jest z nami po drugiej stronie?
Rafał, dobry wieczór.
Witaj Rafale, słuchamy.
No, w ogóle ja nagrałem półtorej godziny temu do was wiadomość,
w ogóle nie została odsłuchana, więc postanowiłem zadzwonić,
bo nie zrozumiałem.
Wszyscy odsłuchali, wszyscy odsłuchali, odczytali, a ja mówię, kurczę no…
A ja mam po prostu takie pytanie, bo zainstalowałem aplikację tą
I faktycznie ona jest fajna, bo faktycznie blokuje te spamy i te niechciane numery itd.
Ale tam piszą, że można np. w tej aplikacji tak piszą, że można niby stworzyć skrót, który będzie powodował, że pomimo, że aplikacja będzie zamknięta, to będzie automatycznie aktualizować tę bazę tych numerów.
No ale jak klikam na tą stronę, w której niby ten skrót można pobrać, to mówi, że nie działa.
To ja nie wiem, czy iPhone tylko nie umożliwia stworzenia tego skrótu, czy o co chodzi.
I dałem sobie z tym spokój akurat. Ja po prostu od czasu do czasu odpalam te aplikacje, mam włączone te przypomnienia, które mnie informują o tym, żeby ją uruchomić, żeby się zaktualizowała ta baza i w ten sposób to robię.
Ale fajnie, że przypomniałeś o tym skrócie, to też z tym spróbuję jeszcze coś powalczyć. Może się uda.
No właśnie, gdyby się to się dało, to bym prosił o ewentualność informacji, jakby się to dało.
No bo wiem, że na Iphone’ie są te skróty, gdzie można ręcznie coś tam tworzyć, prawda?
Te skróty, wiem, że ktoś tam…
No fajnie, no fajnie, no fajnie. No a ja się pytałem tej społecznej inteligencji AI i tak dalej.
Ona twierdzi, że iPhone na to nie pozwala.
Dziwne, to dziwna sprawa.
Ja też pamiętam, że miałem z tym problem.
No właśnie. Jeszcze tak, no to właśnie to będę czekał na info jak coś.
Tu w komentarzu pod audycją bym prosił o to, żeby się udało.
Poprosił o link do tego skrótu czy coś, jakby się udało coś pokombinować.
To jest jedna sprawa. A druga sprawa też jest taką spotkaną sytuacją.
Nie wiem, czy wy się spotkaliście. Od pewnego czasu mam taką sytuację,
że na niektóre numery jak dzwonię, to nie ma tego sygnału, tego takiego, no to taki normalny sygnał, takie zwykłym połączeniem, takie…
albo zajęty numer na przykład, tak? To tego sygnału nie ma. Tylko taka normalna, kompletna cisza.
Spotkaliście się z takim czymś?
Wiesz co, tak. To jest jak najbardziej zależne od tego, jak jest skonfigurowana centrala, bo na przykład
Na przykład jeżeli, zwłaszcza w przypadku numerów stacjonarnych, chociaż i w przypadku komórkowych też to już coraz bardziej powszechne jest, że pod takim numerem też na przykład może być zainstalowana jakaś centrala, która przekierowuje te połączenie na jakąś tam linię wewnętrzną i tu to absolutnie nie ma żadnych reguł z tymi sygnałami wołania, jakie one będą, czy w ogóle będą,
Czy będą jakieś komunikaty głosowe i tak dalej i tak dalej.
To po prostu, to jest wolna amerykanka. Każdy to sobie ustawia na ile może i na ile chce.
Ale znaczy, kto ustawia? Centralna czy kto to ustawia?
Tak, operator tej centrali.
No bo mówię, raz do innych dzwoni, do innych osób to jest normalny sygnał,
do innych dzwoni to nie ma.
To jest takie jakieś dziwne.
Wiesz co, ja się zazwyczaj z takimi zachowaniami, że albo nie ma tego sygnału, albo on jest jakiś naprawdę bardzo taki nietypowy, to spotkałem się raczej w przypadku firm, w przypadku różnych instytucji.
W przypadku dzwonienia do osób prywatnych to nie, to muszę powiedzieć, że nie.
A ja właśnie prywatnych, a ja właśnie prywatnych.
No to w ogóle ciekawa sprawa. Ale wcale bym się nie zdziwił, bo teraz to naprawdę bardzo różnie operatorzy. Teraz mamy jeszcze tych operatorów różnych wirtualnych, którzy działają na sieci innych operatorów, więc tu bym się spodziewał różnych dziwnych rzeczy.
I to się, i po prostu zaczął się to w sumie tak niedawno się dziać i w sumie dlatego tak się dochodziło, bo nie wiedziałem, może to kwestia systemu, może, może coś jakieś,
może iOS coś prowadził, czy coś, ja nie wiem.
To dobrze wiedzieć.
Właśnie trochę się nie zapokoiłem, że czy mam się martwić, czy co, czy o co chodzi.
No ale to fajnie, że to nie leży po mojej stronie wina, tylko po ich stronie coś.
No po stronie prawdopodobnie jakiegoś operatora, do którego dzwonisz i który ma to skonfigurowane tak, a nie inaczej.
Albo zwyczajnie ktoś po prostu szybko odbiera.
No nie, no bo czasami… też tak myślałem, ale raz coś z dziewczyną zrobiłem, że specjalnie, bo jej też tak mam.
I specjalnie raz też nie odbierała specjalnie telefonu i w ogóle nie miałam sygnału. A jej telefon normalnie dzwonił.
To już w ogóle ciekawa sprawa.
I nie ma w ogóle tego sygnału takiego, jak się tam rozłącza taki sygnał, taki jak np. tut, tut.
To też nie ma takiego. Jak osobom się żegnam czy coś, na przykład cisza, nawet nie wiem czy się rozłączyła, czy nie.
To dziękuję. Nie, to by było wszystko. Będę z was słuchać dalej. Pozdrawiam.
Dzięki, do usłyszenia.
Z pakietów newsów została nam jeszcze jedna rzecz, czyli no po prostu drobne newsy.
Tak, i dzisiaj drobne newsy są trzy. Widzę, że to wszystko będą aktualizacje.
Zaczynając od programu, którego w tym poprzeglądzie dawno nie było,
bo będziemy mówić o TW Blue.
Programie, który w nazwie coś zostało z Twittera, ale tak naprawdę jest to teraz
program do obsługi Mastodona,
nad którym postanowił ponownie pochylić się Manuel Cortez,
czyli jego główny deweloper.
I tym sposobem dostaliśmy
dosyć istotną wersję
opatrzoną numerkiem 2025.03.08.
Tutaj można się domyślić skąd ten numer wersji się wziął.
I mamy tutaj rzeczy, których np.
Twiscake w tym momencie nie wspiera, przynajmniej nie wszystkie z tych rzeczy,
co dla tych, którzy z Mastodona korzystają, mogą być przydatne, bo
mamy wsparcie dla filtrów po stronie serwera.
Mastodon ma naprawdę rozbudowane funkcje filtrowania.
Możemy sobie konfigurować nasze filtry tak, żeby np.
jakieś posty, które mają dane słowa, kluczy, które tam możemy wprowadzić, żeby te
posty były albo po prostu ukryte, więc one będą wtedy się wyświetlały trochę tak, jakby miały
jakąś uwagę treści, tylko że uwagę, którą sami sobie skonfigurowaliśmy, lub te
posty po prostu mogą być całkowicie z naszej osi czasu wycinane.
Natomiast to działa tak, że to aplikacja, która komunikuje się z Wasą dronem,
dostaje informacje, że… ona te posty widzi, tylko dostaje informacje, że ten post został wycięty przez ten filtr
i ma być albo po prostu tak schowany, albo całkowicie usunięty.
A jeśli jakaś aplikacja tego nie wspiera i np. Twizcake tego nie wspiera, czy TW Blue wcześniej też,
no to po prostu te posty widzieliśmy, jakby tych filtrów nie było.
A od najnowszej wersji TW Blue to zostało naprawione i po prostu jeśli jakiś post jest odfiltrowany,
czy to ukryty, czy to całkiem usunięty z naszej osi czasu, no to po prostu TW Blue będzie się też zachowywał prawidłowo
i albo ten post ukryje, albo go po prostu całkowicie nam nie wyświetli i dodatkowo możemy sobie też filtrami
filtrami zarządzać swiadkami, możemy je dodawać, edytować i usuwać.
Także jeśli spotkamy coś np. co chcielibyśmy odfiltrować, no to też z poziomu
aplikacji nie musimy logować się do interfejsu webowego i tam coś zmieniać.
Następna nowość będzie fajna dla tych, którzy pracują z kilkoma językami,
bo możemy zdecydować podczas pisania postu, w jakim języku ten post jest.
No i to jest o tyle istotne, że po pierwsze Masteron ma swoje wbudowane funkcje tłumaczenia
i one sugerują się m.in. tą informacją, w jakim języku jest dany post.
On chyba też w tym oficjalnym interfejsie webowym jest też odpowiednio oznakowany
kod języka, więc czytniki ekranu też powinny wtedy język zmienić,
jeśli ktoś korzysta z tego interfejsu webowego.
Ale też my jako użytkownicy możemy zdecydować,
W jakich językach chcemy widzieć posty?
Więc możemy zdecydować tak, że po prostu widzimy wszystko,
ale jeśli na przykład obserwujemy, nie wiem, kogoś, kto pisze w połowie
na przykład po angielsku czy po polsku, a w połowie w języku,
którego nie rozumiemy, nie chce nam się tłumaczyć,
albo nie wiem, pisze dużo takich treści lokalnych,
no to możemy zdecydować, żeby dany język był ukryty.
Dlatego jest to tak ważne, że jeśli my też piszemy w kilku językach,
no to warto pochylić się nad tym, żeby odpowiednio ten język ustawić.
No i teraz z TW Blue, podczas pisania nowego postu to też możemy to skonfigurować.
Wybór języka wygląda w ten sposób, i to jest też całkiem intuicyjnie zrobione.
Priorytetowo jest traktowany język domyślny, który ustawiliśmy na naszym profilu na Macedonii,
bo tam też sobie można coś takiego zdefiniować.
Ewentualnie będzie użyty język postu, na który odpowiadamy, więc nawet jeśli byśmy na przykład mieli na naszym koncie ustawiony domyślny język angielski, ale odpowiadamy do kogoś, kto napisał po polsku, no to TW Blue też wtedy przedstawi ten język na polski lub jeśli automatyczny wybór nie jest możliwy, no to będzie wybrany domyślny język TW Blue samego.
I mamy też informację o tym,
czy jakiś post jest przypięty do profilu jakiegoś użytkownika.
No bo też właśnie na masynowym nie można sobie posty przypinać.
I to jest często używane na przykład, żeby sobie taki dłuższy wstęp o sobie napisać,
coś więcej o sobie, bo tam chyba limity domyślnie to jest 300 albo 400 znaków.
Dla niektórych osób jest to mało, więc tam wrzucają więcej.
Czasami też ludzie przypominają jakieś linki do projektów, nad którymi pracują.
Różnie jest ta funkcja wykorzystywana.
Natomiast teraz też TW Blue po prostu będzie takie posty wyświetlać na początku,
w osi czasu, tak jak to powinno być.
No i też w szablonach możemy sobie skonfigurować aplikację tak,
że też nas poinformuje, że czytamy post, który akurat został przypięty.
Wszystkie posty też powinny być czytane na ekranie przeglądania postów i czytanie postów z interfejsu graficznego powinno działać lepiej.
Także kilka takich dosyć istotnych zmian.
Aplikacja jest oczywiście dostępna na system Windows, zarówno w wersji instalacyjnej jak i przenośnej, więc jak to woli można sobie jedną albo drugą wersję ściągnąć.
I też chyba za jakiś czas powinna być dostępna w automatycznych aktualizacjach, no a też gdyby nie była, no to można sobie ją po prostu ściągnąć ręcznie.
Następna aplikacja, która została zaktualizowana, to EasyMark. O EasyMarku mówiłem chyba dwa tygodnie temu.
I jest to prosta aplikacja do podglądania plików Markdown.
Jest banalnie prosta w obsłudze, bo po prostu dostajemy plik .exe,
który możemy wywołać i wtedy wyświetli nam się okienko otwierania pliku.
Wskazujemy w eksploratorze dowolny plik markdown i on zostaje nam po prostu
otwarty w naszej domyślnej przeglądarce.
Można też ją wywołać z wiersza poleceń, tam od razu podać ścieżkę i korzystać z
niej w ten sposób.
No i w najnowszej wersji aplikacja doczekała się wersji na inne systemy
No bo do tej pory mieliśmy dostępną wersję tylko na Windowsa z procesorami x86,
a teraz mamy wersję też na Windowsa z procesorami ARM.
Mamy też wersję na Maca, też tutaj zarówno w wersji ARM, jak i Intel.
I mamy wersję na Linuxa, tam chyba też są różne architektury dostępne.
Także niezależnie od tego, z jakiego systemu korzystamy, no to możemy sobie tą aplikację ściągnąć,
A ona czasami może się przydać, właśnie jeśli często pracujemy z plikami Markdown.
Chcielibyśmy w bardzo łatwy sposób je przeglądać.
Doczekała też się dodatkowych funkcji tego Markdowna.
Tam została zaktualizowana biblioteka, która jest w tle wykorzystywana
i też mamy kilka nowych przełączników, jak ktoś uruchamiając wiersza poleceń,
którymi możemy na przykład poprosić aplikację, żeby nam wygenerowała spis treści,
Tam chyba ze 20 przełączników jest generalnie takie bardziej zaawansowane, niszowe rozszerzenia markdowna, takie może mniej oficjalne.
Są teraz przez to aplikacje wspierane i dzięki temu właśnie możemy sobie też oprócz takiego podglądu np. spis treści na górze strony wygenerować, gdybyśmy tego chcieli.
I na koniec coś dla osób, które testują Linuxa lub po prostu korzystają z niego na co dzień.
Mamy aktualizację do czytnika ekranu orka.
Jest to aktualizacja na ten moment, która jest dostępna w kodzie źródłowym,
tak na głównej gałęzi, na gałęzi main, na gitowej wersji orki,
Która przynosi całkiem istotną zmianę dla tych, którzy programują.
Orka, tak jak inne czytniki ekranu, ma funkcję informowania o wcięciach.
To się przydaje, gdybyśmy wiedzieli, w jakim bloku kodu jesteśmy,
zwłaszcza jeśli język programowania wymaga tych wcięć.
Python jest takim znanym językiem, który tego wymaga.
Orka może nas o tych wcięciach informować chyba tylko mową.
Nie ma tam funkcji, żeby nas informowała dźwiękiem,
Chyba, że ktoś mnie zaraz poprawi.
Natomiast do tej pory działało to tak,
w przeciwieństwie np. do NVDA,
że ta informacja o wcięciach była słyszana
na każdej linii. Nawet jeśli te wcięcia się nie zmieniły,
powiedzmy mamy funkcję,
w tej funkcji mamy kilka linii kodu,
które są na poziomie pierwszym wcięć.
Cały czas na każdej linijce orka by nam
czytała, że mamy jedno wcięcie. Jedno wcięcie to może być
Gdzie MVDA na przykład raz o tym poinformował tylko gdybyśmy weszli na poziom wcięć wyżej,
aby tam jakieś wyrażenie było, które byłoby wcięte głębiej.
I ta zmiana, która została wprowadzona do orki właśnie też po prostu powoduje to,
że o wcięciach będziemy informowani tylko w momencie, kiedy liczba tych wcięć się nam po prostu zmieni.
Więc nie będziemy za każdym razem tej liczby słyszeć.
Myślę, że ucieszy wiele osób, które chciałyby gdzieś na Linuxie sobie
programować, bo to po prostu nam przyspieszy praca, przyspieszy nam
czytanie. Na ten moment, tak jak wspominałem, jest to dostępne tylko w kodzie
źródłowym, więc jeśli mamy orkę uruchomioną z kodu, są instrukcje, jak to
zrobić i na razie też nie mamy pola wyboru, które pozwalałoby nam
zdecydować, czy te wcięcia mają być czytane tak jak do tej pory, czy w tym
nowym systemie, gdzie one są czytane tylko przy zmianie.
Więc musimy sobie to zmienić flagą, flagi się wpisuje, wklejąc plik w odpowiednie miejsce.
Będzie link w komentarzu, w którym główna programistka, która nad orką się zajmuje,
opisała jak sobie to włączyć, gdyby ktoś chciał tą nowość przetestować.
No i to wszystko.
W takim razie czas na wiadomości od słuchaczy.
Mamy dwie wiadomości, tym razem tekstowe od Łukasza.
Cześć, witajcie. Mam pytanko. Jak działa BeMyAI?
Czy zdjęcia są opisywane offline, czy są wysyłane na serwer, tam przetwarzane
i następnie dostajemy informacje z ich opisem?
No to ta druga opcja. Są wysyłane na serwery de facto pewnie OpenAI,
Tutaj tam są przetwarzane przez model GPT i potem ich opis jest zwracany do użytkownika.
I nie wiem czy jakaś kopia nie idzie do serwerów samego BMA i ICE-a.
Być może.
Dlatego warto i to niejednokrotnie też o tym mówiliśmy i niejednokrotnie przestrzegaliśmy przed tym,
żeby dość ostrożnie podchodzić w kwestii różnego rodzaju danych wrażliwych,
które nigdy nie chcielibyście, żeby pojawiły się w jakichś modelach, żeby były używane do treningu, no bo czasem zdarza się tak, że tego typu dane później za pomocą odpowiednich promptów można z tych modeli wyjąć i po co to, więc trzeba tu zachować pewną ostrożność.
I druga wiadomość od Łukasza.
Za tydzień świetna zabawa, tu mamy uśmiechniętą buźkę.
Ciekawe jak będzie BMI AI poradzi sobie z opisem przeróżnych marzyn i narzędzi do obróbki metali.
Pozdrawiam serdecznie i zapraszam do Kielc na przemysłową wiosnę od 25 do 28 marca.
To my już, Łukaszu, czekamy na Twoją relację z tego wydarzenia,
bo domyślam się, że będziesz i że pewnie znowu zobaczysz jakieś ciekawe urządzenia.
No i fajnie, jak byś nam o nich opowiedział.
Dokładnie. I tyle, jeżeli chodzi o wiadomości na Whatsappie.
Pytanie, czy mamy jakiegoś słuchacza na linii albo wiadomości na YouTubie.
Nie, na razie nie.
W takim razie przechodzimy do technikaliów i tu zaczynamy znowu od Koncika,
ale tym razem związanego ze sztuczną inteligencją i oczywiście Paulina.
W tym tygodniu kącik biedny. Tylko pięć ciosów, ale mam nadzieję, że jakiś tam…
I mój jeden.
Okej, no to już nie tak biednie. Mam nadzieję, że jakąś tam radeśl albo inspirację wam to sprawi.
Pierwszy news jest à propos Manusa, czyli o tym, o czym mówiłam w zeszłej audycji.
Ale to nie jest fajny news, to nie jest informacja o tym, że dostałam kod do zaproszenia i już teraz wiem, jak to działa i super.
Tylko to jest news o tym, że na czarnym rynku sprzedają się kody do Manusa,
które dostają ludzie czekając na liście.
I mniej więcej 52 tysięcy złotych kosztuje taki kod do Manusa.
Dokładnie 100 tysięcy juanów, bo tyle na chińskiej społeczności ktoś się zdecydował
Dziękuję wam za możliwość wyprowadzenia tego narzędzia.
Także zapisujcie się, nawet jak nie będziecie chcieli skorzystać,
bo może nawet, nawet jeżeliby to 10 tysięcy człowiek byłby w stanie zarobić,
no to już zawsze jest pewnego rodzaju gratyfikacja, no a jeżeli nie,
no to można na przykład pokazać komuś, kto z tego będzie czerpał
i kto już będzie bardziej, kto się na przykład zainteresuje dzięki temu takimi modelami.
Także zachęcam do zapisywania się.
Druga rzecz jest komunikat od Apple’a, że aktualizacja Siri się przesunie o rok, aż.
I o ile był duży szum wokół Apple Intelligence i właśnie wokół Siri,
Jako tego asystenta głosowego, który już nie będzie tylko ustawiał nam alarmu,
ale automatyzował właśnie całe nasze życie i tak dalej,
no to jednak dokładność odpowiadania na polecenia użytkowników
waha się od 66 do 80%, więc dla aplat jest za mało
i woli już ten rok poczekać.
Więc to jest ten komunikat, który nam wydali.
Musimy jeszcze poczekać, może to faktycznie będzie tak, jak zapowiadali kiedyś,
że wszystkie afrykońskie dialekty wymarłych języków otrzymają Siri,
ale po polsku jeszcze jej nie będzie.
Kolejna rzecz Baidu pozazdrościło Dipsikowi i wypuściło dwa nowe modele Erniego.
Ja o tych ernich wcześniej wspominałam, gdzieś tam na łamach tych moich kącików.
Ale o ile kiedyś byłam w stanie je chociażby na moment przetestować,
o tyle dzisiaj się w ogóle nawet nie byłam w stanie testować na tą stronę.
Cały czas ta strona mi się ładowała w nieskończoności
i nie byłam w stanie przetestować. No ale o co chodzi?
Są to modele, w których mniej więcej rozumienie i ogarnianie rzeczywistości
jest deklarowane podobnie jak w czacie GPT.
Pomiędzy O a 4,5 się mieści R i 4,5 według twórców,
A X1, no to jest mniej więcej podobny do DeepSeeker 1.
I to jest ten model właśnie myślący.
No i jeśli chodzi o ceny w API, no to one są mniej więcej o połowę
mniejsze niż w DeepSeeku, więc cały czas gdzieś tam te chiny są
widoczne na mapie newsów dotyczących sztucznej inteligencji.
Jak nie DeepSeek, to Manus, jak nie Manus, to Ernie, więc cały czas jest tutaj co eksplorować i jest na co czekać.
Czwarta rzecz a propos asystentów Google. Wcześniej było Siri, teraz są asycenci Google.
Do końca 2025 roku wszyscy użytkownicy, którzy mają ponad 2 GB RAM-u w swoim telefonie
Co jest dla niektórych wiadomością wesołą, a dla niektórych smutną?
Chociaż podejrzewam, że dla tych, dla których jest to wiadomością wesołą, to tak naprawdę nic się nie zmienia, bo oni już dawno są na tym Gemini’u.
Natomiast osoby, które są na Googlu…
No już w zasadzie to, jak przeczytałam tego newsa parę dni temu,
to sobie pomyślałam, a dobra, do października sobie podziała.
A tu się dowiaduję na kolejny dzień, że już są pierwsi użytkownicy,
w groniu moich znajomych, którzy stracili dostęp do asystenta Google.
Więc bardzo pechowo wypadło.
I tutaj mogę się troszkę wtrącić,
Ale to nie z tym newsem, o którym mówię, to jeszcze przed nami.
Tylko to jakiś czas temu mówiłem, że mam tego Jeminaja,
ale on w sumie to jakiś taki jest nie za fajny za bardzo,
bo nie potrafi takich bardzo podstawowych rzeczy robić,
które robi asystent.
Dzwonienie do kogoś, pisanie do kogoś wiadomości.
I otóż może to zrobić, tyle że trzeba to włączyć w ustawieniach.
I w ustawieniach Gemini’a można włączyć właśnie zarówno tego typu rzeczy,
żeby to działało z tymi podstawowymi usługami na telefonie,
jak i można włączyć możliwość działania w workspace, Google Workspace,
czyli wszystkie kalendarze Google’a, maile itd., itd.
No i wtedy ten Dżeminaj rzeczywiście jest w stanie, co prawda różnie mu to wychodzi,
ale nawet, powiedzmy, go jakoś tam pytałem, coś typu,
streść mi wątek dotyczący czegoś tam.
On znalazł wątek, zrobił trochę tam, pominąc, no tak jak wiecie,
te starsze GPTeknurę, co tam zechciały, to przeczytały, a reszty to tam,
to wszystko jedno, więc trochę taki jest ten Dżeminaj, przynajmniej w wersji darmowej.
Ale coś tam powiedział. Jeżeli chcę, nie wiem, miałbym problem z przetłumaczeniem maila na jakiś język,
myślę, że też mógłbym nawet głosowo zapytać, że tu mam mail zatytułowany jakoś tak i chciałbym wiedzieć, o co w nim chodzi.
Jest szansa, że on to powie.
Można oczywiście dodawać wydarzenia do kalendarza.
na zasadzie dodaj mi do kalendarza w czwartek za tydzień,
że coś tam jest o godzinie tam którejś.
I on rzeczywiście to dodaje.
Więc trochę odszczekuje, hau, hau,
bo nie jest z tym Czeminem najgorzej,
natomiast podejrzewam, że najgorsza będzie utrata
wszystkich tych integracji,
Wszystkich tych dodatków, które do asystenta jest troszkę, może nie jakoś bardzo dużo,
ale niektórym to może naprawdę ułatwiać życie. No i tego rzeczywiście, o ile mi wiadomo, nie będzie.
No i nie wiem, jak to współpracuje chociażby z Google Home. Ja nic nie mam na razie na Google Home.
Być może to się zmieni, ale na razie tak to wygląda i zobaczymy.
Myślę, że Google Home to nie jest na tyle leniwsze, żeby to zostało porzucone.
Natomiast, no ja trochę tego Jeminaia nie chcę, bo o ile, że dzwonić się da i wszystkie inne takie, to mniej więcej wiedziałam już jakiś czas temu, o tyle denerwuje mnie kilka rzeczy.
Na przykład to, że nie da się dzwonić do firm, tak jak się da dzwonić w zwykłym Google, bo jeżeli powiemy zwykłemu systemowi, załóżmy, zadzwoń x-kom, no to on, ok, może raz się wywali, ale drugi raz zadzwoni.
A ten, no to w sumie, jak nie jest to kontaktem ani podyktowanym numerem,
no to nie ma siły.
Przynajmniej na ten moment, na który ostatnio to testowałam.
A druga rzecz, która mnie mocno zdenerwuje,
to jest to, że jak zapytam się, jaka będzie pogoda gdzieś tam,
kiedyś tam, czyli na przykład jutro w Krakowie,
no to mi powiem mniej więcej, ale nie poda mi tej godzinówki,
którą mi kiedyś Google podawał.
A ja ci powiem, jak podać godzinówkę. Poda się.
Jak?
Ale nie w asystencie.
Znaczy nie w Gemini’u, tylko, bo Google oprócz Gemini’a ma te usługi, te wyszukiwania głosowe Google.
I ja na przykład zrobiłem sobie do tego gest, zaraz tutaj odłączę telefon i pokażę jak to wygląda,
bo dzięki temu ja sobie zrobiłem do tego skrót na nowa launcher.
Zaraz to sobie ustawię na szybkość, żeby to było troszkę…
O, dobrze. Już mam nadzieję, że…
I teraz jak… Nowa Launcher jest chyba na górze…
Ta aplikacja Google i tam można… O, wyszukiwanie głosowe nacisnąć.
Ale ja sobie do tego zrobiłem gest, przesunięcie dwoma palcami w górę.
Pogoda w Warszawie.
On mówi tym takim zblazowanym głosem Google’a, ale…
I tam gdzieś można rzeczywiście dostać się do tej godzinówki.
Okej, ale to w sumie to tak samo mogę wejść sobie w aplikację pogoda i sobie to klikać, nie?
No, tylko tyle, że rzeczywiście łatwiej jest zrobić gest niż znaleźć pogodę, powiedzmy.
Ale to tak samo mogę mieć gest do aplikacji pogoda, nie? Na przykład.
No tak, tylko że ten asystent Google chyba… Tylko ja tu nie mam karty takiej do dzwonienia,
ale nie wiem, czy on by nie mógł zadzwonić do x-komu. Chociaż spróbuje on.
To mi się chyba nie będzie dało zadzwonić, ale…
Zadzwoń x-kom.
Chyba nie, jednak nie.
Nie, dobrze, bo tego nie umie.
To rzeczywiście tutaj asystent
rzeczywiście wygrywa zdecydowanie z Googlem,
bo asystent rzeczywiście umiał nieraz dzwonić.
Ale jeden głupi feature, który odkryłam w Gemini’u,
Tak, żeby nie było, że narzekam tylko.
To jest, że jak się zapytamy…
Tylko że nie pamiętam, jak to się dokładnie pytało.
Chyba po prostu, ile mam procent baterii.
To faktycznie mówił.
I to jest przydatne, bo jak ja wstaję rano,
podłączam sobie telefon do ładowania, ubieram się, ogarniam i tak dalej,
no to już nie chce mi się przylatywać do tego telefonu,
sprawdzać i decydować o tym, czy go mam odłączyć, czy nie.
Tylko bym się krzyczała na półpokoju,
jaką mam ten poziom naładowania baterii,
i by mi mówiło, ale że wolę dzwonić do X-komu,
niż się dowiadywać, ile mam baterii,
no to sobie poczekam na przymusowe przeniesienie.
Ja w sumie chciałbym mieć smartfon smartfonem.
Ja smartfon mam w kieszeni
i ja w ogóle mam wyłączoną tę komendę głosową.
Ja sobie uruchamiam asystenta home’em.
Natomiast ja bym bardzo chciał mieć, i to by mogło być fajne,
coś w rodzaju głośnika typu Google Home
właśnie z Jemilajem, nie z asystentem, tylko z Jemilajem.
Mhm.
Bo to mogłoby być rzeczywiście fajne.
Coś takiego, co rzeczywiście…
Mogę go spytać o pogodę, mogę go poprosić o jakieś tłumaczenie.
Żeby to był rzeczywiście taki asystent na różnych rzeczy,
mogę go spytać o coś, o to, co Jemilaja
Nawet w czasie rozmowy siedzimy sobie ze znajomymi.
Niedawno akurat była taka sytuacja.
Coś mówiliśmy o jakimś mieście chyba typu Frankfurt nad Odrą.
Nieważne zresztą.
I się zastanawialiśmy, ile ma mieszkańców.
Oczywiście da się to sprawdzić.
Ale fajnie jest zrzucić z przestrzeni komenda.
Powiedz, ile mieszkańców ma Frankfurt nad Odrą.
Nie to, że w czymś smartfonie, tylko po prostu w jakimś głośniku, nie?
Tak, to by było całkiem sympatyczne.
To, to tak rzuciłem sobie.
A, i właśnie, jeszcze jedna rzecz, której nie lubię w Dżaminaju, to jest to,
że jak zapytamy się Google’a, ile mieszkańców ma tam Warszawa,
no to powie, jak podaje jakaś tam strona jakaś,
Warszawa w takim a takim roku ma tyle i tyle mieszkańców.
I super, i mamy tą odpowiedź w sekundę, mamy tą odpowiedź na pewno dobrą i tak dalej.
A w Geminiu dość, że musimy się naczekać, zanim on to wygeneruje.
To jeszcze nie wiemy, czy to nie jest halucynacja.
To jeszcze nie mamy żadnego linka, żeby sobie w to kliknąć
i sobie przeczytać całość i tak dalej.
Więc to jest dla mnie duże, duże upośledzenie.
To mam pytanie z podobnego klimatu.
Czy wy też już zaczęliście widzieć podglądy AI w wynikach Google?
Tak.
Ale od czasu.
Przynajmniej na telefonie.
To ja na komputerze z kolei.
Ach, nawet nie zwracam na to uwagi, szczerze mówiąc.
To będzie nagłówku, więc jak to będziesz miał, to pewnie nie przełatwisz.
Tak, ale ja często omijam, tam są te reklamy, podpowiedzi, coś tam.
Ja automatycznie często omijam kilka tych pierwszych nagłówków.
A nie, no i ten podgląd jest całkiem niegłupi,
bo ja np. zrobiłam kwerendzę do Google’a.
Najlepsza aplikacja to kalendarza na Windows.
Swoją drogą szukam, szukam pilnie.
…aplikacji do integrującej się z Googlem do kalendarza pod Windowsa, jeżeli coś ma się stać.
Fantacykala testowałaś może?
Nie.
Ale to, żeby zintegrować z Googlem, to trzeba zapłacić za to, nie?
W sensie, nie mam z tym problemu, tylko chciałabym to przetestować.
Wiesz co, coś tam w darmowej wersji też jest.
Teraz nie pamiętam, jakie tam są ograniczenia, też nie wiem, jak jest z dostępnością,
bo wiem, że tam jeszcze jakieś na początku braki były,
ale to jest generalnie firma, która dba o to,
Więc bardzo możliwe, że to już zostało naprawione.
No to to jest dobry trop.
Jezus, jaka to się w ogóle…
Fantastica w sklepie Microsoft.
Okej, dzięki.
No i wracając, to właśnie szukałam tych kalendarzy
i mi w tym podglądzie zrobiłam bardzo ładną, 10-elementową listę
z rozwijanymi przyciskami
prowadzącymi do stron tych programów, które wylistowało.
Także ten podgląd nie jest wcale taki głupi.
Okej.
Muszę przetestować.
I został mi ostatni już news z tego kącika.
A w zasadzie to nawet nie news, bo to jest po prostu artykuł
o teorii tego, że wchodzimy w nową erę feudalizmu takiego technologicznego.
I to jest po prostu… tak sobie stwierdziłam, że podrzucę
ludziom, którzy chcieliby przeczytać sobie coś takiego,
co wzbudzi refleksję, co może być fajnym bonusem do kawy.
Może jakieś tam pierwsze zdanie przeczytam, czytam pierwszy fragment.
Ponać łatwiej wyobrazić sobie koniec świata niż koniec kapitalizmu.
Tymczasem dominujący system gospodarczy zaczyna dogorywać.
To jest taka zapowiedź, taka zajawka o tym, jak ludzie, którzy prowadzą konta na serwisach społecznościowych, są porównywani do chłopów pańszczyźnianych itd.
Także polecam.
To jeszcze te moje newsy.
W trakcie w ogóle audycji przyszło na Discorda mi powiadomienie, że
Udio ma nowy model. Udio to jest alternatywa dla
dla Suno. Udio jest, mam wrażenie, bardziej skupiony na jakości samej muzyki,
Na takiej pracy mam wrażenie, oni np.
bardzo by chcieli, żeby te tzw. stems, czyli poszczególne ścieżki,
były nie tak jak w tej chwili to wygląda i w właśnie
i w Udio i w Suno, żeby były po prostu jakimś demuksem czy innym tego typu
z algorytmem wyciągane, co w zasadzie każdy może zrobić mając Demuxa,
tylko żeby te instrumenty były po prostu robione od początku
i żeby te ścieżki były wyciągane w takiej jakości
w cudzysłowie oryginalnej, żeby to nie był proces postprodukcji,
tylko żeby faktycznie udało się wyciągnąć tę oryginalną ścieżkę bębnów,
które tam zostały wrzucone. Nie wiem, czy to już jest,
Ale jest model 1.5 Allegro, wcześniej też był model 1.5, ale Allegro ma być szybszy, nie wiem czy lepszy, no ale jest jakiś model 1.5 Allegro, więc kto ma audio, ten może testować.
Dowiedziałeś się o tym, jak ewentualnie wygląda testowanie tego przez niepłatnych użytkowników?
Jest, zdaje się, ten model w kontach
darmowych, no tylko oczywiście można chyba dwie czy trzy, dwa czy trzy utwory
dziennie robić, ale chyba można to sprawdzać, więc można testować.
Ale ja nie wiem, czy sobie nie kupię na miesiąc, ale zobaczymy,
bo on bardzo czasami naprawdę ciekawe rzeczy potrafi stworzyć.
Też myślę, żeby sobie na miesiąc kupić.
Takie interesujące.
I ostatni news, który będzie takim łącznikiem poniekąd między tematami,
to jest coś, co już miałem powiedzieć wcześniej, ale mnie na ostatnich dwóch przeglądach nie było,
czyli możliwość dokonywania transkrypcji audio w Eleven Labs.
Do 9 kwietnia za darmo, potem będą jakieś opłaty, nie wiem jakie.
Mam nadzieję, że nie będą one wielkie,
dlatego że ten transkrypt
dwugodzinnego tyfloprzeglądu
został zrobiony, ja wiem,
trzy minuty?
Czy coś koło tego?
To rzeczywiście szybko.
Tak, poszło to błyskiem.
Sam algorytm wydaje się ciekawy,
Na przykład, choć ja jeszcze nie bardzo to testowałem,
w ogóle wcześniej, gdy chciałem to testować,
to albo to było niedostępne, albo miałem jakieś błędy,
w każdym razie stwierdzili, że no, się nie udało i jest refund.
Co prawda refund zero, bo to jest na razie darmowe,
no ale jest refund. Także tak to wygląda.
Natomiast jest np. przy Tyflo Podcastzie
motyw intro napisane,
potem, że Fundacja Instytut Rozwoju Regionalnego
itd. itd. prezentuje Tyflo Podcast.
No, potem są te nasze różne powitania.
No i potem jest np. o tym, co dzisiaj w Tyflo Przeglądzie powie Michał.
Energiczna muzyka w tle jest napisane
i to, co tam Michał mówi, te wszystkie rzeczy.
Teoretycznie są wydzieleni mówcy.
Teoretycznie wiadomo, kto co będzie mówił.
To jest podzielone na mówców.
Edytor tamten na stronie jest jakoś dostępny,
chociaż podejrzewam, że wkłębiając się w szczegóły,
tam może być coraz więcej różnych problemów.
Można wybratować się od tego albo jako JSON,
albo jako HTML, jako SRT.
Tam jest kilka tych formatów do wyboru, więc ja to po prostu wyeksportowałem.
No i w jednym miejscu spróbowałem zamienić na Tomasz.
Nie wiem, czy to gdzieś jest napisane, bo nawet nie sprawdzałem,
ale będę się tym bawił na pewno i zobaczymy, co się będzie działo.
Nie wiem, czy nie mamy telefonu.
Mamy, mamy telefon, mamy słuchacza.
Maciek do nas dzwoni. Właściwie już od jakiegoś czasu jest i czeka i ktoś jeszcze do nas widzę, że dzwoni, ale to po kolei. Dobry wieczór, Maćku.
No dzień dobry, wieczór. Właśnie już w takiej formie od jakiegoś czasu słucham tych do przeglądu, tego co nadajecie.
Natomiast ja dzwonię z kilkoma trikami, z kilkoma informacjami i z dwoma bądź trzema pytaniami, już nie pamiętam.
W każdym razie najpierw te triki, bo za nimi wylecą.
A propos, pierwszy z nich, to zdaje się, że słuchacz pytał
odnośnie tego tłumaczenia maili na iOS-ie, tak?
Chyba coś takiego było.
I ja bym powiem tak, znaczy nie wiem na ile to teraz działa,
natomiast, bo to kiedyś fajnie działało,
potem w wersjach iOS-a 18 początkowych się to wzięło i zepsuło.
A teraz, szczerze mówiąc, tego nie testowałem,
Ale zainspirował mnie ten, że współsłuchacz i będę musiał to zrobić.
A o czym mówię?
Mianowicie, wszystko sprowadza się do pokrętła edycji,
to znaczy do parametru edycja na pokrętle,
do opcji zaznacz wszystko, albo tam wybór tekstu i sobie zaznaczamy,
co nas tam interesuje, już tam powiedzmy, par sześć,
ale to, co jest kluczowe na tej edycji,
na tym parametrze, to opcja udostępnić.
Bo ona nam, zaznaczony tekst, tą treść, którą sobie zaznaczyliśmy,
pozwala nam to po prostu gdziekolwiek udostępnić.
I jeżeli w tym arkuszu udostępniania wybierzemy sobie Google Tłumacz,
Google Translate, GPL powiedzmy, czy coś takiego, to teoretycznie
Właśnie ta treść powinna się od razu nam wydzielić,
wyeksportować do tłumacza, wkleić się w pole tekstowe.
I to będzie co najfajniejsze, to jest taki wycinek aplikacji,
który się wtedy nam tworzy.
Czyli nie otwiera nam się taka fizyczna aplikacja, że cała,
ale interfejs tej aplikacji tylko okrojony do tej konkretnej treści.
Czyli, że tekst źródłowy to jest to, to, to, to, to, to i to,
a przetłumaczony tekst to jest to, to, to, to, to i to.
I szczerze mówiąc, nie wiem, czy to działa, tak jak mówiłem,
bo jak ja w iOS 18 próbowałem sobie czegoś takiego dokonać,
to perfidnie ubijało mi maila, aplikacja poczta się crashowała,
bezwstydnie, no i tyle z tego było.
Co ciekawe, w innych aplikacjach to działa normalnie.
Mail z tym miał jakiś problem, ale polecam sobie to sprawdzić. Ja zresztą też będę sobie to po audycji ogarnę, bo jeżeli by to Apple naprawiło, to spoko, a jeżeli nie, to ich będę o to gnębić, bo… no bo dlaczego? To ma nie działać, skoro powinno działać, nie?
No, także to jest rzecz jedna. I słychać mnie cały czas, tak? Nie mam z internetem niczego?
Cały czas cię słychać.
A druga rzecz, a propos Orange Telefonu i tego automatycznego aktualizowania antyspamu.
To jest kwestia tego, że stricte skrót udostępniony przez autora.
On tam sobie lubił bardziej nie działać niż działać, czy to prawda?
No i autor udostępnił, powiedzmy, alternatywną poniekąd metodę.
Czyli panie zrób to sam, mianowicie, ale podał krok po kroku, co, gdzie i jak.
Czyli generalnie w aplikacji skróty w zakładce automatyzacja,
czy jak to tam się nazywa, u góry ekranu dodaj przycisk.
I tam są różne naprawdę te kryteria. Wybieramy sobie porę dnia,
kiedy chcemy, żeby ten antyspał nam się aktualizował.
No i powiedzmy tam, nie wiem, wybieramy sobie wschód słońca,
Zachód, powiedzmy, co my tam chcemy, czy konkretną godzinę na przykład.
Potem sobie wybieramy, kiedy chcemy, żeby on tam nam to aktualizował.
Jest pod nagłówkiem powtarzanie i możemy…
Mało tego, możemy sobie wybrać, czy my chcemy, nie wiem, z przesunięciem,
czyli 15 minut, godzinę przed wschodem słońca,
nie wiem, 2 godziny i tak dalej, parę, 10 minut też przy okazji,
po wschodzie słońca, ile tam chcemy.
No i potem przycisk gotowy i generalnie już z tych czynności, które tam mamy.
Najlepiej sobie była w wyszukiwarkę wpisać po prostu albo Orange, albo telefon, albo telefon Orange.
W każdym razie, co zawiera te dane słowa kluczowe, bo tych czynności na iOS-ie mamy dużo,
a jeszcze jak sobie nainstalujemy aplikację, to tym bardziej.
I w każdym razie w sekcji telefon orange jest element zaktualizujący antyspam.
No i w momencie jak my sobie w to wejdziemy, to będzie przycisk znowu zaktualizujący antyspam.
Tylko tutaj jest bug dostępnościowy, mamy błęda tak zwanego,
czyli niestety z podwójnym tapnięciem w ekran
To nam się nie zrobi.
Należy sobie tapnąć, no dwukrotnie spuknąć z przytrzymaniem
i wtedy się to elegancko zrobi.
Automatyzacja chyba się doda od razu,
a jak nie, to jeszcze przycisk gotowy,
ale nie, chyba się powinna po prostu dodać
i okienko całe się powinno zamknąć.
I to już nam teoretycznie powinno działać.
A, ważna jeszcze rzecz, żeby po pierwsze się upewnić,
Czy w trakcie konfigurowania tej czynności mamy opcję zaznaczoną uruchom od razu,
a nie tam, że pytaj przed uruchomieniem? To jest jedno.
I drugie, nie wiem, czy coś z powiadomieniami nie było.
Ale w każdym razie… i to powinno działać generalnie.
Też był czas, że nie działało, nawet jak sobie to ustawiłem.
I się z tym mordowałem.
Ale nie wiem, co konkretnie rozwiązało problem.
Czy aktualizacja aplikacji tegoż właśnie Orange Telefonu czy iOS-a?
No ale od paru ładnych miesięcy, dwóch chyba, trzech, to mi naprawdę działa.
Bo wcześniej, mimo że ja to miałem ustawione, to to się w ogóle nie odświeżało,
nie zasysało tak naprawdę tej aktualnej listy numerów.
Tylko po prostu pojawiało się to przypomnienie, że tam, halo, aplikacja Orange Telefonu
Zaktualizować.
No to trzeba się będzie przeklikać przez to.
Miałem to w innej kolejności powiedzieć, ale skoro już w sumie jestem przy jakichś takich trikach, to może powiem to w sumie teraz, chociaż miałem przy innej okazji.
Ale jeżeli, powiedzmy, nie mieliście wcześniej konta w Eleven Labsie, a chcielibyście bardzo mieć, a wcześniej się zalogowaliście przez, powiedzmy przez Apple, tak jak ja to uczę,
Wcześniej to mnie jakoś tak nie korciło, żeby się bawić z tą całą makiną,
tym całym interfejsem webowym, a propos klonowania tego głosu,
i tak dalej, i tych innych możliwości wykorzystywać.
Ale teraz powoli coś się zaczynam przekonywać do pewnych celów.
W każdym razie wcześniej aplikacja Eleven Labs Reader,
stworzyłem sobie tam konto. No i co teraz?
Logowania w aplikacji jest, na stronie 11lapsa logowania z Applem chyba nie ma.
A nawet jak jest, to to w ogóle zadziałać nie chce.
Ale zdaje się, że nie ma.
No i co? Teoretycznie i praktycznie obejście to jest takie, żeby niby z poziomu aplikacji
zresetować hasło i żeby na maila przyszło.
Wszystko fajnie, tylko w momencie jak wchodzimy w ustawienia,
i tam odnośnie do konta jest tam zresetuj hasło, przycisk czy jakoś tak,
tylko że totalnie, po pierwsze komunikatu jakiegokolwiek dla voice-overa brak,
czyli tak totalnie nie ma nic i tak naprawdę my nie wiemy czy link do resetowania hasła
został wysłany czy nie, no bo totalnie nic nie ma.
Tak jakby się nic nie zadziało po tym dwukrotnym stupięciu.
Ja tak długo myślałem, o co chodzi. Dlaczego mi to nie przychodzi? Czemu to nie chce działać?
I co się okazało? Na mailu też nic nie miałem, a ja sobie ostatnio zaglądam w spam.
Ostatnio sobie zaglądam w spam i maile chyba sprzed miesiąca,
czy kiedyś chyba ze cztery albo pięć maili password request coś tam, coś tam, coś tam.
I sobie myślę, że fajnie, to znaczy, że wylądował w spamie.
W razie czego uczulam na to, gdyby komuś przyszło jednak do głowy
poeksperymentować z 11lapsem, a zacząłby w sumie tak jak ja
od aplikacji i logowania się z Apple’em, to żeby na to też mieć świadomość,
że aplikacja po prostu nie informuje łaskawie,
że link do zresetowania został wysłany,
to jakby się nic nie zadziało.
A po drugie, że może mail wylądować w spamie.
To taka to przygoda.
A teraz będą pytania dwa albo trzy.
I pierwsze pytanko to będzie na dwa pytania.
Będą w sumie do ciebie, Paweł, więc tam się odciszaj, jak możesz.
I kwestie są odnośnie tego odcinka, tego podcastu dziesiątego, co mówiłeś.
I odnośnie tego tam zacieśnienia stosunków i tak dalej.
Chodzi mi o to, czy tam była jakkolwiek poruszana,
a propos tych strategii nadchodzących, czy tam już wiadomo coś więcej
o tej europejskiej karcie osoby niepełnosprawnej,
Czy nic nie było tam poruszane na ten temat?
Chyba nam Pawła nie ma.
No to się teraz tego nie dowiem.
Ale no to trudno.
W sumie chociaż ciekawe mnie to.
Bo nie powiem, żeby fajnie było wiedzieć.
Natomiast drugie pytanie mam do Pauliny z racji takiej, że i użytkowniczką Androida jesteś, i użytkowniczką Windowsa.
I teraz czy jakby potwierdzisz moje obserwacje, moje spostrzeżenia, czy też nie?
odnośnie dostępności, no stricte naszej accessibility,
dostępności interfejsów różnych modeli językowych, nie?
W sensie, wiesz, ja zaobserwowałem na przykład coś takiego
na Macu i na iOS-ie, że tak naprawdę, jeśli chodzi o to odczytywanie
dynamiczne treści przez czytniki, przez voiceover,
To tak naprawdę jedyne, który z tych interfejsów robi to poprawnie,
to jest webowy GPT, no i apka na iOS-a.
A cała reszta w sumie pod tym kątem to leży i kwiczy.
Ja w sensie… Gemini na przykład automatycznie odczytuje,
że model odpowiedział, ale w sumie co odpowiedział?
Ale co odpowiedział?
To już nie, to już tego nie anonsuję.
Tak? Też tak jest? Też tak się zdarowuje?
Tak, chociaż ja, szczerze mówiąc, nie przywiązuję do tego wagi,
bo ja chcę już czytać odpowiedź, zanim ona się skończy,
więc nie chce mi się czekać na to, aż on mi powie.
Plus ja nie lubię słuchać odpowiedzi czata jednym ciągiem,
bo najczęściej jak ja się go o coś pytam, to o coś, nad czym ja się chcę zastanowić,
pochylić i przeczytać to we własnym tempie i we własnej strukturze.
Więc tak naprawdę ja w ogóle tego nie używam i mogę nie zwracać na coś uwagi.
Ale tak jak mówisz, to właśnie tak myślę, że tylko czat gpt-webowy jest pod tym kątem zaopiekowany.
Apka ma fajną funkcję, przynajmniej na androidzie.
A mianowicie taką, że jak się generuje odpowiedź, to ona tak wibruje śmiesznie.
A, ten haptic feedback.
Tak, tak. I ten haptic feedback jest taki bardzo śmiesznie zrobiony,
bo on jest taki ty-ty-ty-ty-ty-ty-ty.
Tak jakbym ci stukał w kamizel gdzieś,
tylko że coś koło tego, nie?
Dokładnie, mi się to podoba, te animacje.
I potem jak się kończy, to jest takie, o-ach, takie mocniejsze,
takie jakby, trasną wędr, nie?
Tak, taki enter, nie?
Takie. Tak, bardzo mi się to podoba.
Podoba mi się ta animacja.
Myślę, że to właśnie bardzo podoba.
I Grog ma podobnie na iOS-ie,
natomiast tam tradycyjnie właśnie nie ma tych,
nie ma dynamicznie odczytywanych odpowiedzi.
Za to tam, gdzie są, na Macu z kolei, bo za to GPT na Macu nie odczytuje tych odpowiedzi dynamicznie.
Auto z automatu. Natomiast co ciekawe, CoPilot odczytuje.
I po prostu tak zmarszuł. Interfejsik w sumie dostępny.
Też fajny, ta aplikacja swoją drogą niedawno wyszła w sumie.
Tak naprawdę w tym momencie mamy dwie apki,
chyba z tego, co się orientuję, tych AI-ów, które są dostępne natywnie na Maca,
właśnie GPT i Copilot. Natomiast Perplexity to jest też śmieszna sprawa,
bo aplikacja na Maca jest w ogóle niedostępna. W sensie da się tam coś z OCR zrobić,
ale generalnie jej instalować nie polecam. No i jeszcze co do groka właśnie,
To tam też opcja zaloguj się z Apple, jeżeli by ktoś chciał z przeglądarki, to też nie działa.
Generalnie tam nic się nie da zrobić, czy to na iPhonie, czy to na Macu.
Nastawiasz buźkę, przykładasz do Touch ID, generalnie się nie dzieje nic.
W aplikacji mobilnej już tak, ale cóż z tego jak się nawet stworzy konto i się nie da.
Więc już lepiej się tam zalogować czym innym, bądź, kolwiek.
Ja tam akurat ukryj adres e-mail sobie zastosowałem,
żeby sobie mieć jakieś konto stricte e-mailowe, tylko ukryte.
I ostatnia rzecz, którą mam, to poprawki na makoesie i na watchoesie,
jeżeli chodzi o bety.
Takie na makoesa dwie, a w sumie cieszą jedna bardziej,
Druga też cieszy.
W każdym razie doc w końcu został naprawiony.
Doc, którego ja używam do aplikacji, gdzie mam ulubione aplikacje.
Powstawiane i które chcę literowo nawigować.
Problem był taki, że z jakiejś przyczyny danej aplikacji nie było.
Escape mi tego doca nie zamykał.
Nie mogłem sobie komfortowo otworzyć kosza.
A kosz nam akurat to z doca.
I było to uciążliwe chyba od dwóch wersji.
A tutaj się na szczęście w końcu naprawiło.
Znaczy, Apple poprawiło.
Druga rzecz jest taka, że w App Store już teraz możemy w końcu,
w końcu, wow, a to ten błąd to już istniał dużo dłużej,
filtrować sobie wyniki wyszukiwania, czy my chcemy
wyszukać apki stricte zaprojektowane nam dla Maca,
czy dla macOSa, czy apki dla iPhone’a slash iPad’a,
które działają też na Macach z procesorami M1 i wyższymi, nowszymi.
I generalnie to bardzo lubiło pływać, to nie działało.
Jeszcze chyba końcówki są nowe w ogóle, więc ten błąd był naprawdę długo.
Ja ich o to zacząłem w ostatnim czasie mocno gdzieś tam cisnąć.
W sumie w końcu to naprawili, wow.
Więc to są te dwie poprawki na Maca.
A na WatchOS-a z kolei, nie wiem, czy o tym też mówiliście czy nie,
jeśli chodzi o te zmiany głośności dla multimediów i dla voice-overa,
bo teraz to się zachowuje jeszcze inaczej poniekąd w tych ostatnich betach.
11, ile tam jest teraz? Chyba 4 będzie, w sensie bety.
I to teraz się zachowuje tak poniekąd jak przyciski głośności na iPhonie.
Głośność voiceovera jest ustawiona na sztywno,
a głośnością multimediów znowu możemy regulować głośność voiceovera.
Czyli przykładowo głośność voiceovera ustawiamy na pokrętle na 80,
no i ten górny limit będzie na tyle duży, na ile sobie to ustawimy na pokrętle.
Nie wiem, na ile to jasno tłumaczę.
Podobnie jak na iPhone, jak głośność voice-overa,
to ta głośność, jak się przyciskami reguluje,
to też nie będzie w sumie wyższa.
No i na watchu też, że gestem dwukrotnego stuknięcia
z przetrzymaniem i przesuwaniem palców w górę, w dół
regulujemy głośność stricte multimediów,
gdzie jest ta głośność voice-overa też regulowana.
Więc w sumie taka zmiana gdzieś nam weszła.
No i to chyba byłoby na tyle. Ja się trochę nagadałem i nie wiem, zastanawiam się czy coś jeszcze mi nie umknęło. W razie czego to się będę Wam nagrywać jeszcze im.
Swoją drogą z takich aplowych informacji dostępnościowych dziś pojawiła się w App Store aktualizacja aplikacji Facebook, ale jeżeli nie zainstalowaliście jej to nie instalujcie.
W sensie, jeżeli macie tę, która jeszcze działa, jeżeli chodzi o pisanie komentarzy prawidłowo, bo…
Tak, bo tu się niestety nic nie zmieniło. Cały czas jest problem. Naprawdę, no…
Miało być lepiej, tak? Meta miała się…
Meta miała się zająć współpracą dostępności Facebooka i miało to działać.
To chyba nam pokazali środkowy paluszek, umyślnie bądź nie, ale chyba coś tu ewidentnie nie stykło. No właśnie też miałem o tym mówić, dzięki Michał, bo mi wyleciało.
korzystania z tego medium, bo stronę zabrali,
komentarze na stronie, no niby można pisać, ale, ale to dla mnie
jest mało wygodne, no to w tym momencie, to
jak się ktoś zaktualizował, no można powiedzieć, że został praktycznie
wykluczony z dyskusji. Oczywiście, wiadomo, no są tacy też
użytkownicy, którzy mają w ogóle gdzieś jak i co piszą,
To sobie jeden z drugim włączy dyktowanie głosowe, powie co ma do powiedzenia, poprawi się jeszcze pięć razy i powie, że w sumie nie o to mu chodziło, a chodziło mu o zupełnie inne słowo i takie coś pójdzie w świat, no ale nie do końca zawsze o to chodzi, a właściwie nigdy o coś takiego nie chodzi.
Ja powiem szczerze, mnie to teraz bardzo owłacza w ogóle jakiekolwiek mojej godności, bo skoro mi zostało tylko dyktowanie i ja de facto nie mam w ogóle na to wpływu w tym momencie też, co piszę, ewentualnie po edycji, a to i też nie do końca.
Ale potem można zobaczyć i tak historię tej edycji. No słabo to wygląda.
Tak się poważnie zacząłem zastanawiać, gdzie alternatywnie w sumie…
Ja nie mówię, że na stałe, ale tak, żeby powiedzmy dać ludziom,
tym już obecnym członkom dostępnego apla.
Było, nie było, w sumie chyba 7 lat jest grupka, czy 8 jakoś tak.
Często aż tak szybko leci.
No i kurcze, to teraz naprawdę nie jest fajna sytuacja.
Ja się w końcu muszę za to zabrać, żeby jakąś ankietkę zrobić.
Bynajmniej nie na Facebooku i bynajmniej nie komentarze,
Tylko właśnie, nie wiem, Google Docs’y chyba, czy coś, żeby się po prostu ludzie wypowiedzieli w sumie, gdzie by chcieli, jak by chcieli, co im się wydaje najbardziej dostępne, prawda, czy byliby w stanie, skoro nie znają i tak dalej, nie?
A w sumie co poza Whatsappem? Bo mi nic nie przychodzi do głowy.
No i ewentualnie jakaś grupa dyskusyjna, mailingowa.
Grupa dyskusyjna, ewentualnie jakiś subreddit, natomiast wtedy mamy barierę językową.
Może Discord jakiś, gdzie można by jakoś wątkować w coś?
Właśnie też zależy mi na tym poniekąd, żeby można było wątkować też, bo…
No mówi się, że Whatsapp pracuje nad wątkowaniem właśnie, tak a propos takich, no to jeszcze gdzieś nie jest potwierdzone,
ale gdzieś były przecieki, że może będzie się dało w Whatsappie tworzyć wątki.
Byle nie popracowali na tym, tak jak w przypadku Messengera, gdzie te wątki, to jest tragedia, jeżeli chodzi o czytanie tego potem.
Tak, dlatego ja zupełnie nie rozważam na ten moment tych całych społeczności w Messengerze, w sensie, jeśli chodzi o grupę, bo to się czyta…
Nie, to się czyta źle, to się po prostu czyta źle.
Ja powiem szczerze, gdyby nie grupa studencka i gdyby nie moja i gdyby nie…
No właśnie administrowanie póki co tam na Facebooku dostępnym aplem, to ja bym tego Messengera się już dawno pozbył, nie?
No, taka jest prawda.
Pomyślę no, w sumie, gdzie by tu, bo w sumie myślałem troszkę o Whatsappie, myślałem troszkę o Instagramie.
Powiem szczerze, gdyby nie to, że temat dotyczy Apple, to też można by było rozważać Telegrama, no ale…
A teraz kolejne zdanie, na iOSie troszeczkę kuleje.
iMessage też nie do końca, bo co gdy ktoś się na przykład dopiero zamierza na kupno iPhone’a.
Więc to też nie jest zbytnio dobrym rozwiązaniem.
Podstawowy problem z Telegramem i Whatsappem to jest właśnie brak wątków.
Na Facebooku mamy te wątki, nie mówię o tej czacie na Messengerze, na której nie zaglądam,
ale jednak na Facebooku jak ktoś pisze posty…
To są tematy w sumie. Byleby on był sensownie dostępny, to spoko.
No właśnie.
Się pomyśli. No to dzięki śliczne za możliwość udziału.
Dzięki Macku, dzięki za telefon. A tak pół żartem, pół serio.
PHP, BB, Modified by Przemo też zawsze.
Może jeszcze jest jakąś opcją.
Dobra, trzymajcie się, słucham was dalej.
No to witam jeszcze raz, ja.
Mi się przypomniało jeszcze jedno pytanie.
Co sądzicie na temat aplikacji, dokładnie poczty? Chodzi mi o tego odlokalnienie. Zadowoleni jesteście z tej aplikacji, czy nie? Jakie macie do zdania?
Ale mówisz o Windowsie?
Tak.
Moje zdanie jest takie, że omijam szerokim łukiem.
Moje również.
Ponieważ?
Dlatego szukam kalendarza, ponieważ jest to wolne, jest to gorzej działające niż stary kalendarz i zawalone rzeczami, którymi są totalnie niepotrzebne i webowe. Nie lubię.
No właśnie, no właśnie. Bo to każde jakieś żądanie, jakieś łączenie z chmurą, Microsoftu, iCloud czy czym, nie wiem dokładnie, nie mogę tego zrozumieć.
To znaczy, to jest znów mój problem z tą aplikacją. Ja generalnie na Macu siedzę, więc tam też mnie to nie dotyczy aż tak.
Natomiast jeśli chcemy z tego korzystać, no to tak naprawdę te wiadomości nie są ściągane na dysk, tylko one są właśnie ściągane na serwery Microsoftu do chmury i my się z tą chmurą łączymy.
Ale z którą chmurą?
Z Microsoftu. Oni po prostu mają swoją chmurę do obsługi poczty, więc to jest generalnie problem, jeżeli chodzi o Microsoft Outlook, a nawet tego mobilnego,
Bo ja to już nawet dawno, dawno temu jeszcze, kiedy w ogóle nie było o tym mowy, kiedy Microsoft się nawet do tego niespecjalnie przyznawał, to ja już to widziałem, że jak wysyła się maile na przykład z Outlooka, to one wychodziły zupełnie inną ścieżką niż tak standardowo.
Natomiast tak, to się trzeba z tym liczyć, że jeżeli masz na przykład pocztę, którą masz na serwerach Google albo na serwerze swoim jakimś, bo dajmy na to…
Mhm, czyli trzeba to z tą chmurą łączyć.
Ja na przykład mam poczty na gmailu i normalnie korzystam teraz tylko ze strony i dziękuję i ja te wszystkie aplikacje pochowam do konta, tylko tyle co na telefonie korzystam z tej poczty systemowej, ale chodzią i dostaję to normalnie na stronie i chyba jest dużo łatwiej, szybciej niż te wszystkie aplikacje tego co są. I zastanawiam się czy nawet nie zlikwidować jakoś.
Myślę, że Microsoft kiedyś w końcu ogarnie dostępność tej poczty. Tylko ile my jeszcze na to będziemy musieli poczekać.
To znaczy akurat tutaj z jednej strony oczywiście też rozumiem, bo wiadomo, że każdy ceni jakąś tam swoją prywatność,
Ale tak naprawdę tak wiele różnych rzeczy, które my nawet nieświadomie gdzieś tam udostępniamy, to ja nie wiem, czy jest się aż tak bardzo czym przejmować, że po prostu jeszcze jeden podmiot ma gdzieś tam nasze dane.
Bo tak naprawdę to… Rafale, jak na przykład, nie wiem, wchodzisz na jakąś stronę i dostajesz informację, dajmy na to, o ciasteczkach, tak?
Te takie słynne okienka, które się pojawiają. Dokładnie. Czytasz to?
Nie.
No właśnie. A gdybyś się wczytał, to na przykład byś się dowiedział, zresztą to też przy okazji à propos outlooka.
To jest zabawne. Jakimś tam, kiedy po raz pierwszy odpalimy tego Outlooka na Windowsie, to dostajemy informację, że Microsoft udostępnia nasze dane.
Iluś tam, ja nie wiem, to już chyba w setki szło, czy nawet w tysiące, teraz nie pamiętam, ale jakaś masakryczna ilość podmiotów.
Tak, podmiotów reklamowych, więc to po prostu… Także z jednej strony ja oczywiście rozumiem, ale z drugiej strony to jest po prostu…
Jeżeli jest coś darmowego, jeżeli ktoś nam udostępnia coś darmowego, niestety, to my jesteśmy tym towarem, który jest gdzieś tam przehandlowany.
To jesteśmy zdani na te różne takie śmieci dodatkowe, no nie?
Prywatność, prywatnością mi bardziej funkcjonalności brakuje.
Dokładnie.
Bo ja sobie nie jestem w stanie studenckiego konta podpiąć pod tego outlooka.
Bo on mi wykrywa exchange zamiast mi dać opcję konfiguracji, żebym sobie mogła wpisać port, kurcze bladę, SMTP, port IMAP, port taki, siaki, owaki, żebym sobie mogła po swojemu wyklikać, a nie, że on robi ze mnie idiotę.
Po prostu z tym tak ciekawo, bo nie mam dobrego klienta do kalendarza, do poczty, bo Becky to wiadomo jak Becky, szybki jest, ale tak żeby…
Ale nie obsługuje kalendarzy.
No właśnie.
Do kalendarzy to ewentualnie jeszcze jakoś tam Thunderbird i…
No, tylko że ten Thunderbird no to też się laguje, też…
No tak, tak.
I tak dalej, no to ten Fantastical muszę sprawdzić, ale właśnie strasznie dużo tracę, jak nie ten Google, to znowuż…
Jakoś nie wiem dlaczego, to znowu Messenger, przecież taka fajna apka była do Messengera, powiadomienia przychodziły, wszystko pięknie było.
Ale wiecie co, ja tak naprawdę, tak sobie myślę, to jak my rozmawiamy, tak zupełnie abstrahując od tego wszystkiego, że my tu rozmawiamy tak naprawdę o rzeczach,
Które dla osoby widzącej w ogóle są absolutnie oczywistymi i narzędziami jakby pierwszej potrzeby i powiedzmy używanie kalendarza w dzisiejszych czasach,
gdzie naprawdę no fajnie jest sobie jakoś tam organizować ten czas, jeżeli mamy na przykład dużo różnych spotkań albo pracujemy w różnych zespołach.
No to jest oczywistość. My się musimy naprawdę zastanawiać, czego my w zasadzie chcemy użyć do tej operacji i jeszcze się w dodatku zastanawiać na jak długo to będzie dostępne.
I takie pytanie rzucone w próżnię, jak my mamy być produktywni?
Widzący osoby w ogóle tak naprawdę nie zwracają też uwagi na to.
Dokładnie, no bo interfejsy są produkowane z myślą jednak o osobach widzących my po prostu, albo coś tam działa, albo nie.
Chyba, że starsza osoba, no trochę to tak już tak…
No to one już tak trochę, o kurcze, mówią raz, zaktualizowali system, poprzestawiali mi ikonki i tak dalej, tu i tam, i ten, co ja mam tak robić, tego…
Ja mam, ja mam wszystko pokładane, tego, a ten mi, zrobili tylko mi połagany i nie wiem po co.
No niestety. Dobrze Rafale, czy jeszcze masz do nas…
To znaczy, to jest generalnie chmura Microsoftu.
Microsoftu oni mają swoją też usługę poczty elektronicznej.
No bo wiem, że OneDrive to jest…
Bo my o to chodzi, że to by w ewentualności by lądowało.
Gdybym chciała te np. dane jakoś tam sprawdzić, czy są czy coś,
to na jakiej to chmurze, jakie dysko, czy to OneDrive…
Tutaj przez chmurę rozumiemy po prostu, że to idzie przez ich serwery.
Dlaczego? No, na przykład dlatego, żeby te funkcje kategoryzowania działały.
Ewentualnie pewnie jakiś co-pilot tam się może uaktywnić.
Może coś będzie wykorzystane do trenowania, nie czytałem regulaminu,
więc nie wiem, jak to tam, czy można to ustawić.
Ale generalnie po prostu niektóre rzeczy, niektórych funkcji jest ta chmura im potrzebna po prostu.
Tak, generalnie mówiąc, generalnie mówiąc chmura, to też nie zawsze mamy na myśli
Dysk chmury.
Serwery.
Tylko mówię ich, takie serwery.
A, o to chodzi, o to chodzi.
Bo ja, koniecznie jak oni to czytali, czyli oni to pisać, to ja zacząłem szukać, co to jest, co to tego i nie mogłem znaleźć, co, co cholery.
Co oni tutaj zapiszą? Jakieś kurcze?
A to właśnie tak, ja tak to myślałem, że właśnie takie jakieś dyska.
Aha, to chodziło o ich serwery.
No dobrze, to już mojej stronie by było wszystko.
Również życzę dobrej nocy.
Wytłumaczę, dlaczego ten mój news na temat Eleven Labs był takim łącznikiem.
Bo… ktoś właśnie dzwoni.
Dobrze, słuchajcie, przejdźmy teraz dalej, a słuchacz poczeka po prostu.
Dobrze, w takim razie Mac Whisper doczekał się nowej wersji, czyli też narzędzie
do rozpoznawania mowy, ale na Macach, za to offline, więc tu nie ma żadnych
Choć aplikacja, zdaje się, nie jest darmowa.
To znaczy, jest, ale z ograniczeniami dość mocnymi.
Tak, i te funkcje chyba są dostępne tylko w wersji Pro,
która bodajże kosztuje 60 albo 50 albo 60.
Teraz nie pamiętam, też cena się zmieniała.
I chyba też jest zniżka 15% właśnie z okazji tej
dużej aktualizacji, która się pojawiła.
Także też jakby ktoś był zainteresowany,
to warto sobie stronę przejrzeć.
Tam chyba kod jakiś trzeba wpisać, ale on tam jest podany.
O co chodzi w Mac Whisperze, o to mówiliśmy wiele razy,
to jest aplikacja, która pozwala na Macu transkrypty tworzyć whisperem.
Co jest fajnego w tej aplikacji, to to, że ona jest naprawdę bardzo
dobrze zoptymalizowana pod Maci i te modele po prostu działają
bardzo szybko i wydajnie. I w tej najnowszej aktualizacji,
która się pojawiła, została dodana, jak to powiedział developer,
Najbardziej wyczekiwana funkcja przez użytkowników.
Dużo osób o to prosiło i dziwię się w sumie.
Czyli automatyczne wykrywanie mówców.
Do tej pory Mac Whisper wspierał to w pewnym sensie.
Gdybyśmy chcieli sobie ztranskrybować audycję jak tyflo przegląd,
ale z podziałem na osoby,
żeby w transkrypcji było napisane,
np. Tomek, minęła godzina 20, zaczynamy kolejny tyflo przegląd.
No to musieliśmy do aplikacji podać osobne pliki audio,
gdzie każda osoba była na osobnym pliku, na osobnej ścieżce.
A w tej najnowszej aktualizacji po prostu tego już nie musimy robić,
bo aplikacja jest w stanie rozróżnić różne głosy w naszym nagraniu
i odpowiednio nasz transkrypt podzielić.
Działa to wyłącznie w wersji Pro i działa to wyłącznie w modelach, które w aplikacji są oznaczone jako WhisperKit.
Generalnie tak lepiej właśnie z tych modeli WhisperKit korzystać, dlatego że aplikacja wspiera kilka silników.
Zaczęła się od silnika WhisperC++, który na dzisiejszy czas jest dużo bardziej wolny.
Natomiast modele oznaczone WhisperKit, zresztą domyślnie, kiedy wejdziemy do ekranu zarządzania modelami,
Zostaną nam właśnie te modele wyświetlone, aplikacja dosyć inteligentnie dobiera nam,
które modele warto nam ściągnąć. Warto właśnie z tych modeli WhisperKit korzystać,
bo one są trochę mniejsze chyba, lepiej zoptymalizowane pod nasze komputery,
ale też podczas przetwarzania wykorzystują maksymalnie zarówno kartę graficzną i też
ten procesor neuronowy do uczenia maszynowego, dzięki czemu komputer się nam po prostu
Będzie mniej grzał i dosyć szybko to przetwarzał.
Więc te wszystkie modele, które działają na WhisperKit,
wspierają tę identyfikację.
To wygląda tak, tutaj na przykładzie tefloprzeglądu,
który trwał niecałe 3 godziny, z tego, co pamiętam.
Najpierw mieliśmy sam proces transkrypcji,
który u mnie akurat zakończył się po 20 minutach,
Po czym przychodzi aplikacja do identyfikacji mówców, to po prostu widzimy jego kolejny komunikat.
To trwało u mnie jakieś 2 lub 3 minuty, no i później możemy sobie z tym transkryptem pracować.
Namyślnie otworzy nam się nawet widok ze wszystkimi mówcami i namyślnie oni nawet będą planowani
po prostu cyframi od speakera 1 do tam ile osób zostanie w danym nagraniu wykryte.
I teraz jak możemy sobie tych speakerów ponozywać?
Możemy sobie wejść w ten drum script podzielony na widoku segmentów tak zwanym.
Tam po prostu sobie przeczytać kto co mówi.
Będziemy słyszeli tam speaker 1, minęła godzina 20 i już wiemy o kim aplikacja myśli.
Natomiast mamy też możliwość odtworzenia pierwszego segmentu, w którym dany mówca występuje.
I to w tym momencie jest mało niestety…
Znaczy, to mogłoby być lepiej dostępne, bo to działa tak, że jeśli najedziemy myszką na jedno z tych pól edycji,
gdzie możemy danego mówca nazwać, no to obok tego pola edycji wyświetli nam się przycisk play,
który nam pozwoli ten segment odtworzyć.
Więc tutaj przydaje się skrót wo command F5, który sprowadza nam myszkę do kursora VoiceOver,
po czym po prostu, kiedy pójdziemy w prawo od danego pola edycji, to ten przycisk zauważymy.
Wystarczy w niego kliknąć, wtedy nam się to zacznie odtwarzać.
Nie wiem czemu, akurat w tym miejscu, gdzie wpisujemy w to pole edycji, jeśli zaczniemy odtwarzanie,
to nam aplikacja zaczyna bardzo mulić.
Więc warto później spacją sobie to odtwarzanie po prostu zatrzymać
i wtedy możemy wrócić do jego pola edycji i je spokojnie wypełnić.
No to tam się pewnie będzie też w czasie rzeczywistym aktualizowało,
więc pewnie dlatego też to działa wolno.
I mamy też menu kontekstowe, które możemy sobie normalnie w OM wywołać.
I to menu kontekstowe jest o tyle istotne, że tam będziemy też mieli opcję
z kategoryzuj jako, categorize as chyba to się nazywało.
I to jest o tyle ważne, że czasami może się zdarzyć,
że aplikacja nam wykryje jednego mówcę kilka razy jako różne osoby.
Ja na tym testowym Tryfoprzeglądzie miałem taką sytuację,
że akurat nas wykryło fajnie, jednego ze słuchaczy wykryło też dobrze
za pierwszym razem, natomiast drugim słuchaczem miał problem
i został on zidentyfikowany jako dwie osoby.
Ale nic prostszego, po prostu nazywamy jedną z tych pól,
A przy drugim używamy funkcji kategoryzmu jako, wybieramy osobę i problem jest rozwiązany i po prostu nam się automatycznie pozmija.
Jak jest wynikiem końcowym? No nieźle. Zwłaszcza, że to wszystko dzieje się w stu procentach na urządzeniu,
te nasze dane nie są nigdzie wysyłane. Możemy naszą transkrypcję ocenić, natomiast wtedy po prostu jest oceniany sam model
i na tej podstawie w aplikacji kolejność tych modeli jest jakoś dopasowywana
na podstawie tego, jak ludzie oceniają jakość tych modeli.
Natomiast te dane nigdzie nie są wysyłane.
Czasami te…
Ci młówcy są wykrywani za późno, o jedno, dwa słowa.
Jak tutaj rozmawialiśmy,
Przeglądaliśmy ten plik testowy.
Jeśli pracujemy nad transkriptem, możemy to poprawiać ręcznie.
W widoku segmentów możemy szczałkami chodzić po transkrypcie
i cyframi przypisywać poszczególne linijki do odpowiedniego mówcy.
To się da szybko zrobić.
Jeśli zapamiętamy, pod jaką cyfrą jest dana osoba,
to można to sprawdzić.
Natomiast w dużej części aplikacja za nas robi dobrą robotę
i później możemy sobie taki transkrypt wyeksportować,
czy to po prostu do pliku tekstowego, czy do HTML-a,
czy np. jako plik SRT z napisami,
które możemy sobie później dograć np. do jakiegoś filmu na YouTubie
czy na jakimś innym serwisie, jeśli jest dla nas to potrzebne.
Tak że jeśli nie macie jeszcze tych aktualizacji,
a macie aplikację wygłupioną, to aktualizacja jest zupełnie darmowa.
Wystarczy sobie aktualizację sprawdzić
I jeśli korzystacie z modelu, jednego z modeli opartego o WhisperKid, no to to wykrywanie będzie automatycznie włączone i po prostu automatycznie się rozpocznie, kiedy zakończy się sam proces transkrypcji.
No to jest naprawdę kolejny krok, jeżeli chodzi o takie transkrypty podcastów, które będą rzeczywiście użyteczne dla też osób,
No, które rzeczywiście chciałyby korzystać z tego i chciałyby przede wszystkim właśnie w ten sposób uczestniczyć w takich audycjach,
bo na przykład nie są w stanie słyszeć, albo mają problemy ze słuchem.
No, bo w tym momencie to, co mamy na przykład na naszych stronach, jak mamy taki transkrypt audycji, to jest wszystko jednym ciągiem.
No nie mamy podziału na mówców, a no mam nadzieję, że coś takiego też pojawi się w whisperach, w narzędziach, które wykorzystują ten silnik pod Windowsem.
No i dzięki czemu będzie można jeszcze nową jakość wprowadzić.
Teoretycznie to jest, ale mi się nie udało tego dobrze uzupełnić.
No właśnie, ja też miałem z tym problem, więc jeszcze podejrzewam, że trochę trzeba poczekać i pewnie też coś się pojawi.
Czy udało się odebrać telefon, bo tam ktoś dzwonił?
Widziałem, że Bartek do nas dzwonił na przykład, ale Bartek ma jakiś problem z połączeniem się z nami
i chyba ma podobny problem, który miał tydzień temu, że też na Whatsappie jakoś nie mógł się do nas dobić,
więc… ale zdaje się, że są jakieś wiadomości. Widziałem na przykład, że Maciek też jeszcze coś tam nagrał
i jeszcze chyba nie tylko, on zresztą.
To w takim razie mamy jeszcze wiadomości tekstowe. Muszę je znaleźć, ale chyba już je znalazłem.
Tak, od Łukasza. Cześć. Dodam jeszcze, że na Blind Shell 3 aplikacja mobilna Copilot działa bez najmniejszego problemu.
Druga wiadomość.
Ja też uważam Messengera za informatycznego bubla, ale niestety grupa w moim zakładzie pracy jest na nim założona, no i muszę się z nim mordować.
Macie rację, wiadomości ciężko się czyta.
Takie mamy wiadomości od Łukasza.
Wiadomości jak wiadomości, to też zależy gdzie, natomiast ja bym powiedział, że największym kłopotem to są wątki, bo no przynajmniej na iOS-ie.
Wiadomości to jeszcze da się czytać, ale jak są na przykład grupy messengerowe, te w tych tak zwanych społecznościach i tam można wątkować.
I to z założenia to jest bardzo fajne rozwiązanie, no bo dzięki temu jest porządek w tej konwersacji.
Ale to, w jaki sposób jest to prezentowane, jeżeli chodzi o voice-overa, to wygląda bardzo źle. Bardzo źle jest się w stanie odnajdować w tych konwersacjach. Gdzie początek, gdzie koniec. I tak to potem jest wymieszane. Więc naprawdę to wygląda źle.
Mamy telefon, więc odbierzmy. Kto jest z nami po drugiej stronie?
No ten oczekujący Bartek się kłada po tej stronie.
Nie wiem, co się dzieje z tym Whatsappem.
Tak, Michale, miałeś rację. Ten sam problem z w zeszłym tygodniu.
Muszę zobaczyć, czy to czasem nie problem nie leży po mojej stronie,
bo, że tak powiem, oprócz was, to na Whatsappie przez ostatni tydzień
się z nikim nie kontaktowałem.
No akurat to się zgadza, ale i tak będę musiał to przetestować.
Na sam początek zapytam, czy Paweł może już wrócił?
A to jest dobre pytanie, bo coś chyba u Pawła ewidentnie internet się wysypał, niestety.
No bo pierwszy temat, z którym dzwonię, to tak naprawdę wypłynął w trakcie tej audycji,
bo Paweł mnie tutaj troszeczkę zainspirował i zaintrygował, może też poniekąd,
bo dał mi alternatywę do mojego, no niestety, problemu,
który przez ten tydzień, przez te sześć dni zasypniczo się nie rozwiązał, czyli ten…
TCA. Problem z TCA.
No właśnie, ten TCA Media Downloader.
Próbowałem szukać przez Google, przez wyszukiwarkę,
wpisałem tą sekwencję 3 na końcu i de facto wynalazł mi jakiś wynik
v3.6 i jak w to wszedłem,
to tam w ogóle nie mogłem się odnaleźć, a jak
udało się coś pobrać, to niestety była wersja…
Wcześniejsze, czyli dwa, coś, dwa, pięć z kawałkiem, więc kurcze.
Dlatego chciałem tutaj Pawła dopytać, bo w międzyczasie was troszeczkę tutaj
ściszyłem na Winampie i próbowałem by najmniej zrobić test.
Wszedłem na kobalt.tools, jak dobrze tutaj Paweł mówił.
I de facto w pierwszym polu edycyjnym sklepałem adres URL skopiowany z pliku na YouTubie.
Później de facto poruszałem się strzałkami, tam jest taki przycisk, on nam czyta wciśnięty i to chyba nam czytał auto, jak dobrze pamiętam.
I właśnie w tym miejscu przeniosłem się na trypy czytania.
I po naciśnięciu tabulatora był audio nie wciśnięty i po naciśnięciu spacji on nam się przełączył na ten tryb audio, ale kiedy cofnąłem się do przycisku download to pojawił mi się, po jego naciśnięciu pojawił się jakiś komunikat, gdzie był przycisk get it.
Ja właśnie wchodzę sobie na stronę.
Powinno się pojawić to okno zapisywania.
Wiesz co, ja wchodzę sobie na stronę teraz i mam tu jakiś link z YouTube’a.
Wybieram sobie audio, że chcę pobrać audio.
Klikam na download.
No i zobaczmy, co się będzie działo.
Bez tytułu Google Chrome pojawia się jakieś okienko
i pojawia mi się okno zapisywania pliku.
Czy to może mieć, Michale, też znaczenie, że ja akurat to robiłem na Firefoxie?
Być może, ja to akurat robię na Chrome’ie.
No dobrze, to wtedy to muszę. A Michał, czy masz jeszcze to okno otwarte?
Mam.
Okno zapisywania.
Tak.
Bo chciałbym, żebyś mi tylko tak sprawdził, no wiadomo, że to nie tylko dla mnie się przyda,
ale z czystej ciekawości. Jak już masz zapewne pod tabulatorem też listę rozwijalną
z wyborem formatu, tak? Jakie są dostępne ewentualnie formaty, bo jestem ciekaw,
czy po przełączeniu się na ten tryb audio on jakby sobie wyselekcjonował.
Przecinamy swoje formaty audio.
Bo rozumiem, że tabulatorem cały czas idziesz.
Okej, ale masz możliwość wyboru lokalizacji?
Ale jakiej lokalizacji?
No tak, bo to jest standardowe okienko pobierania, to już zależy od przeglądarki.
Tak, to już zależy od tego, jak masz ustawioną przeglądarkę.
Ja mam ustawioną, żeby za każdym razem pytał mnie o to, gdzie chcę zapisać plik.
A przypomnij mi tylko Michale, gdzie to się, że tak powiem, ustawia.
Bartku, w ustawieniach. Ale gdzie dokładnie to…
W ustawieniach przeglądarki, okej.
Jeszcze ewentualnie w kwestii Firefoxa spróbuję może wyczyścić historię,
bo dawno de facto nie była czyszczona, może to też jest że przepchane,
albo coś rzeczywiście…
No ja akurat Firefoxa używam w tym momencie do…
Mam tu otwarte nasze media komunikacyjne, więc akurat do tego wykorzystuję
Teraz to jest ciekawe, skoro się przyłączyliśmy na audio. Ciekawe w jakim formacie on nam to powiedział.
Już Ci powiem, to co sobie próbowałem pobrać przed momentem zapisał mnie jako mp3.
No powiedzmy, że to jeszcze nie… de facto to jest format skompresowany, ale pytanie jakie BPM tam sobie wyselekcjonował.
To musiałbym to już sprawdzić, ale bo tu jeszcze widzę, że są te zakładki settings i tu można sobie oczywiście jeszcze…
Tak, tak, tak, bo domyślnie jak bynajmniej wszedłem na stronę, to była zaznaczona zakładka save, czyli zapisz.
Tam jeszcze widziałem jakieś zakładki updates chyba, tak? Coś na dole chyba było?
No to już wiesz Bartku, to już tu trzeba się rozejrzeć po tym interfejsie po prostu.
Okej, w porządku. No to, że tak powiem w tym temacie będę jeszcze działał. Może rzeczywiście dla mnie to się też okaże alternatywa.
I bynajmniej nie będzie trzeba niebezpiecznych może i plików pobierać, bo tutaj mi wyskakiwało bynajmniej powiadomienie,
Tak jak mówiliśmy, od tego antywirusa szybko, Defendera, że plik może być zagrożeniem, czy na pewno chcesz pobrać ten komunikat.
Jeszcze takie drugie pytanie, bo de facto mogę wam powiedzieć, że oszuści chyba nie śpią.
Dzisiaj miałem powtórkę z rozrywki.
I znowu, tym razem do mnie przyszedł SMS, bo w sobotę przyszedł do mojej przyjaciółki z
low-streścią. Mamo, zmienił mi się numer telefonu. I tutaj właśnie pojawia się moje pytanie,
bo przed numerem telefonu był wa.mslash. I doszły mi słuchy, że po kliknięciu w ten link
by nas przekierował na jakąś stronę, tak? Co oznacza ta sekwencja?
To jest, jak dobrze pamiętam, link do czatów na Whatsappie.
Aha, i dlatego, bo tak, bo na końcu sms-u…
Najprawdopodobniej tam byłby ten skan kontynuowany.
Tak, dokładnie.
Okej, dobra, to bynajmniej będę już to wiedział.
Okej, Michale, teraz do Ciebie głównie troszeczkę powrót z zeszłej środy.
Zauważyłeś jakąś poprawę?
Jeżeli chodzi o ICO?
A w powiadomieniu Michale, czas właśnie transakcji, pojawił Ci się tej, o której robiłeś tą transakcję, czy o której przyszło powiadomienie?
Bartku, byłem zajęty prowadzeniem audycji.
Bo ja właśnie miałem taki przypadek, że przyszło do mnie powiadomienie o wykonanej transakcji, ale z datą pojawienia się powiadomienia.
O, no to też ciekawe, to tak nie powinno być.
I tutaj taka ciekawostka też à propos ICO.
Michale, pytałem się w zeszłym tygodniu o odbiorców przelewów na telefon.
Z samej czystej ciekawości wczoraj zadzwoniłem na infolinię banku
i okazało się, że jednak jest możliwe czyszczenie listy, wyczyszczenie,
bo jeżeli mamy tych odbiorców dość sporo, to musimy się troszeczkę namęczyć,
bo niestety zauważyłem, że można je usuwać pojedynczo.
A mianowicie sposób jest bardzo prosty.
Musimy zastosować długie naciśnięcie na odbiorcę.
A i tam jest menu jakieś kontekstowe.
Można to uznać menu kontekstowe, chociaż jest tylko opcja usługi.
Rozumiem. A to dobrze wiedzieć. Dzięki.
To tak dla czystej ciekawości, kto by chciał tutaj z tego skorzystać,
bo wiadomo, że czasami tych odbiorców rzeczywiście może być za dużo.
OK. I to tyle na ten tydzień. I tak już jesteśmy grubo po 24. Już mamy czwartek.
Mamy środę.
No właśnie, coś mi się…
Może tak rekordowych tylu przeglądów nie róbmy, że zaczynamy we wtorek, a kończymy w czwartek. To może lepiej nie.
Może doczekamy, chociaż kurczę, jak tu jeszcze spać w trakcie audycji.
Właśnie.
Dzięki bardzo.
Ja wam życzę spokojnej nocki i dziękuję tutaj.
Ewentualnie będę jeszcze testował wtedy to przez Kroma.
Jasne. Do usłyszenia.
I w razie co będę się z wami kontaktował jednak na FaceTime.
Trzymajcie się serdecznie. Pozdrawiam. Hej.
Mamy jeszcze wiadomości.
Mamy wiadomości głosowe od Maćka.
Posłuchajcie, długo nie musieliście czekać.
Chociaż zależy, kiedy mnie puścicie, wyemitujecie, ale a propos tego pytania drugiego,
które miałem do Pawła. Nie wiem, czemu ja się w sumie na Pawle zafiksowałem tak stricte,
bo być może Piotrek będzie, Ty może Piotrek będziesz wiedział, a być może jeszcze ktoś
z Was. W każdym razie chodzi mi o Tap to Play, które do nas łaskawie dzisiaj weszło.
No i teraz pytanie o dostępność. W sensie ja wiem, Wyście o tym mówili,
o tej dostępności wprowadzenia pinu, że ten accessibility mode jest dostępny
I se to można włączyć, tylko pytanie teraz jest takie,
jakbyście to mogli jeszcze raz albo podać źródło, skąd to mieliście,
nie wiem, ten filmik, który był na YouTubie.
Tylko teraz kwestia jest taka, bo jest mówione na stronie chyba PEP
właśnie gdzieś tam, w jakimś artykule wsparcia tam znalazłem to,
że generalnie jest kwestia odczytywania tych instrukcji głosowych niby.
Tylko teraz pytanie. Czy to jest odczytywane jakoś tam przez jakieś sample, powiedzmy?
Czy to jest odczytywane, widziane przez voice-overa?
No i generalnie czy ta instrukcja, jeżeli już taka osoba niewidoma będzie chciała zapłacić
nie Apple Payem, tylko plastikiem i będzie musiała ten PIN podać,
to czy te instrukcje będą też dla niej po polsku? Czy to jest zlokalizowane na dane języki?
Czy to jest stricte właśnie po angielsku i powiedzmy taki sprzedawca
będzie musiał tej osoby tak czy inaczej wytłumaczyć,
jak to się powinno robić, jak to się powinno wprowadzać ten PIN,
ażeby prywatność zachować, nie?
No, to jeśli Paweł jest z nami i wie, to będę wdzięczny.
Jeśli Pawła nie ma z nami, a ktoś by znał odpowiedź,
to też będę wdzięczny.
No, też mi to zaoszczędzi w sumie pisania do Apple Accessibility.
Pytanie, czy oni się orientują, czy oni to wiedzą,
bo to też troszeczkę z tym bywa różnie czasami.
I mimo, że to jest Apple Accessibility Team,
to mam wrażenie, że czasami nie wszystko wiedzą.
No, może tak troszeczkę użytkowniej, że czasami więcej wiedzą.
Gdzieś tam, tak zwaną pocztą pantoflową.
E-pantoflową w sumie.
Także za odpowiedź będę wdzięczny, jeśli ktoś będzie coś wiedział.
Dzięki wielkie.
I dosłownie rzutem na taśmę
przed chwilką dostaliśmy jeszcze jedną wiadomość od Maczka.
Słuchajcie, jeszcze szybkie info, szybki news.
sprawdziłem odnośnie tego udostępniania w mailu, o czym mówiłem, jeśli chodzi o tłumaczenia
i o opcję po zaznaczeniu tekstu udostępnij na edycji, po wybraniu parametrów edycja.
Niestety aplikacja mail dalej się crashuje, więc no cóż, będę musiał to zgłosić,
tak że zgłoszenie pójdzie. Dobrze, że ktoś mi przypomniał o tym po prostu,
że generalnie to tłumaczenie mu, że tak powiem, leży na serduchu i żeby chciał z tego skorzystać.
Także spoko, zaraz ogłoszenie pójdzie. Także to już ode mnie definitywnie tyle.
Tymczasem witamy czwartek.
Tak, witamy rzeczywiście, tak? Już czwartek.
Środę.
Środę, tak. 13 minut po północy.
Nie straszcie ludzi.
Dla tych, którzy nas słuchają na żywo.
Ja tak na szybko, jeśli chodzi o to Tap to Pay może, bo chyba, że Paweł też już wrócił.
Ale chyba nie w międzyczasie.
Nie pamiętam, gdzie ten film był. Natomiast jeśli chodzi o lokalizację tych komunikatów,
to ja myślę, że prawie, raczej na pewno, bo to jest jednak część iOS-a, a iOS generalnie jest
tłumaczone, więc pewnie te komunikaty będą w języku, w jakim jest system operacyjny
Ustawiony, tak, tutaj strzelam.
I komunikaty były czytane przez syntezę,
natomiast samo wprowadzenie w pinu, nie pamiętam dokładnie, jak to wyglądało,
to nie było tak, że voice-over czytał na głos cyfry.
Albo się stukało ile razy na odpowiednią cyfrę,
że jak ktoś chciał piątkę pisać, to musiał pięć razy stuknąć,
albo gestami liczby się wybierało.
To było zrobione w taki sposób, że nie trzeba było mieć do tego słuchawek,
A też te cyfry nie były czytane nagle.
Zaraz nie pamiętam dokładnie jak, ale było to dosyć sensownie rozwiązane.
I mamy jeszcze dwie wiadomości od Sylwestra.
Ja na Samsungu niestety nie umiem tego zrobić,
bo dla mnie to jest za trudne.
Tam jest bardzo silna blokada i ja tej blokady nie mogę zdjąć.
…zeszło. Tylko mi się udało na starym telefonie innej firmy, Oppo.
I niestety się poddałem już.
Bartoszowi tylko proponuję zaopatrzyć się w rejestratora, kapelek Jack-Jack,
jakiś interfejs lub mikser, podłączyć to, nagrywać i tyle.
I tyle wiadomości.
Tyle wiadomości.
Tymczasem ja już nie jestem, bo było jakieś pytanie, zdaje się, do mnie, a tu jakieś u mnie…
O Top2Pay, ale nie, czy ty to widziałeś w praktyce?
Nie, znaczy ja słyszałem nagranie w ramach chyba podcastu australijskiego.
Czy to było na samplach, czy to voiceover, jak to w ogóle…
Nie, nie, to był voiceover z tego co pamiętam.
Synteza, po prostu się tam zaktywowała z jakimiś instrukcjami.
Jeszcze Maciek się pytał odnośnie tego podcastu eBiU.
Czy w ramach tych prac było coś mówione o karcie osób niepełnosprawnych?
To znaczy, na razie cieszą z tego, że ona została przegłosowana
i ona po prostu jest.
Raczej jej nie przyspieszą, ani też jej kształt już nie zmienią.
Dzięki interwencji chyba też m.in. BIU zmieniły się troszkę też zasady,
kogo ta karta obowiązuje itd.
Jeżeli jest jakiś konkretny postulat, to daj znać, Maćku.
I na koniec został temat słuchawek, w których duże nadzieje pokłada Paulina.
Tylko dlaczego?
Zgadza się. Chociaż może zanim o słuchawkach, to jeszcze bym powiedziała o rzeczach…
Albo nie, dobra, bo takie rzeczy się zostawiają na koniec. Dobra, o słuchawkach.
Jest, widziałam dzisiaj, nie wiem od kiedy, ale gdzieś tam z tego co mi się udało ustalić to mniej więcej od pięciu dni,
można kupić słuchawki Huawei Free Arc. I to są słuchawki, których dzisiaj reklama wyskoczyła mi jako przedsprzedaż
To jest sprzedaż ze strony Huawei’a, ale wcześniej już słyszałam o nich jakieś tam wstępne informacje,
które są na Bluetooth, ale mają zaczepy na ucho.
Ponieważ background mój jest taki, że jestem bardzo dużą fanką słuchawek,
które jakby ideowo mieszczą się na przykład w kieszeni albo w jakiejś tam małej przestrzeni, małej kieszonce.
Są po prostu przenośne w każdych warunkach,
ale z drugiej strony nie męczą uszu, nie wciska się ich w kanał słuchowy,
nie odcinają dostępu do otoczenia i tak dalej.
I na ten moment używam zwykłych Panasoniców, tam RPHS ileś tam.
To są bardzo stare słuchawki, mam je już od technikum,
chyba z piątą parę czy którąś taką,
Bo te słuchawki psują się mi tak przeciętnie raz na rok.
No to już nawet może i siódmą.
Ale kosztują 50 zł, więc jestem w stanie spokojnie subskrypcyjnie tyle płacić
za wygodę noszenia nieowczarżających mojego słuchawek w kieszeni.
Ale w związku z tym, że no kabel to kabel, czyli jeszcze przejściówka, no bo wiadomo, już teraz jacków nie ma w smartfonach, no i w ogóle się trzeba martwić tym, że ten kabel się plącze i tak dalej, no to myślałam jakiś czas temu, żeby kupić słuchawki na bluetooth właśnie takie, które byłyby zawieszane.
Ale średnio było z tymi modelami na rynku,
ponieważ nawet jeżeli słuchawki miały zaczepy na uszy,
no to i tak były one takimi zwykłymi pchałkami.
Więc te zaczepy były takie bardziej po to, żeby dopasować się do grupy ludzi,
którzy szukają słuchawek do biegania.
I po prostu, żeby te słuchawki lepiej się trzymały,
Ale tak naprawdę nie były one dla mnie niczym nowym, niczym wartym uwagi.
No a teraz jak są te Huawei Free Arc, no to one kosztują w przedsprzedaży, która trwa do 27 marca,
na stronie Huawei’a 399 złotych zamiast 499 złotych, czyli ta stówka taniej.
Ale widzę, że na Media Expert można już je normalnie kupić i dostać je bez problemu.
Właśnie w tej cenie, w której na stronie Huawei’a też one są.
I poczytałam sobie opis,
w którym jest napisane na MediaEkspercie, że konstrukcja jest doużno otwarta,
więc zadzwoniłam, żeby się spytać, o co z tym dokładnie chodzi.
I z tego, co mi powiedział pan w MediaEkspercie,
To słuchawki owszem, jakby wkłada się w małżowinę, umieszcza się w małżowinie,
ale nie opiera się ich na niej, tylko cały ciężar jest przeniesiony na górną krawędź ucha.
Tak są zrobione te podpórki w uchwycie, w tym zaczepie, żeby nie męczyć wnętrza ucha,
Tylko sam ten zewnętrzny element.
Także myślę o nich. Bluetooth 5.2.
Siedem godzin użytkowania w przypadku słuchania muzyki.
Pięć w przypadku połączeń głosowych.
I cztery razy można naładować z etui ładującym.
Co jeszcze? No ANC nie ma, ale tam jest postawiony bardziej akcent właśnie na to, żeby słyszeć otoczenie.
Jest jakaś tam podobno w miarę inteligentna redukcja szumów przy połączeniach głosowych, żeby sensownie było słychać jak gdzieś się jedzie itd.
Co tam jeszcze jest ciekawego?
No można na przykład sobie…
Ale to chyba działa wyłącznie z urządzeniami Huawei’a.
Że do jednego tabletu albo telefonu podpinamy dwie pary takich słuchawek
i słuchamy sobie z kimś razem jednej treści.
To jest ta jakaś appka, AI Live, czy coś takiego, w której możemy sobie dostosować te słuchawki.
Mają dotykowy interfejs, tam są wszystkie skróty wypisane na stronie, te przesunięcia, dotknięcia itd.
Odbieranie, odrzucanie połączeń, pauzowanie muzyki.
Jest wszystko zawarte.
No i można się podłączyć do dwóch urządzeń i się przełączać pomiędzy nimi, tymi słuchawkami.
I to w zasadzie tyle informacji, które o nich mam.
Ciekawe. Ciekaw jestem, jak będzie z opóźnieniami. Chociaż szkoda, że nie ma Bluetootha, chociaż 5.3.
Bo 5.2 to jest jednak ciut stary już Bluetooth, ale no zobaczymy. No może, może.
No będę chciała iść gdzieś do salonu i je przetestować, ale właśnie nie wiem na ile będę mogła,
bo jednak to są słuchawki, które są z tej kategorii, których się nie testuje.
To prawda.
I tyle.
Ale no może jakoś, może jakoś na biedną niewidomą mi się uda.
Zobaczymy. Może w MP3 100, że będzie się dało je przetestować. Nie wiem czy MP3 100 ma słuchawki.
Te konkretnie, ale oni tam ponoć są przygotowane nawet na testowanie słuchawek dokanałowych.
Ponoć mają jakieś różne odkażacze do słuchawek, które…
I słuchawki w ogóle testowe, także jest szansa, że jeżeli u nich będą, to być może.
To prawda.
No to dzięki za podpowiedź. No to w zasadzie to jest tyle, jak chodzi o tego newsa.
Czy ktoś, ktoś coś jeszcze znalazł? Albo może coś przeoczyłem, o czym nie wiem.
No to ja bym chciała powiedzieć o dwóch rzeczach.
Pierwsza rzecz to jest mój zachwyt nad fantasticalem.
Także dzięki Ci Piotrku, że uratowałeś mi życie.
Kurczę, no zarąbi statka.
W sensie, to nie jest król dostępności.
To jest trochę zlagowane i takie…
no, dałoby się tam coś poprawić, ale…
jest fajnie używalne, przyciski są podpisane,
są skróty, jest integracja z Googlem nawet, darmowa,
więc ten poradnik, który czytałam o kalendarzach był może nieaktualny
Jest lista dni i po tabie jest lista wydarzeń tego dnia.
Nawet jest pogoda, jak się będzie od razu jest odczytywana w danym dniu.
Jest parser języka naturalnego, który pozwala tworzyć szybko wydarzenia,
ale jeszcze nie przetestowałam go.
Obawiam się, że to może być tą opcją płatną.
Znaczy no, ja mogłam normalnie wpisywać.
Ja patrzę i nie wiem jak to będzie działało z językiem polskim. To może być prawda.
Bo właśnie srebrna chętę wpisałam po polsku i mi nie zadziałało.
Bo chciałam sprawdzić, ale wpiszę po angielsku i sprawdzę za chwilę.
Tylko nie chciałam już dłużej tracić uwagi na audycji.
Chciałam po prostu sobie tylko szybko zerknąć.
Ale nie no, ogólnie jestem nastawiona bardzo pozytywnie.
Będę pewnie pisać do twórców, żeby móc pomóc w testowaniu tego.
I w sumie bym to kupiła, gdyby nie to, że nie ma żadnych funkcji,
których potrzebuje premium.
Co? Mamy powiadomienia. Mamy normalnie integrację powiadomień
z tym, jak mamy to ustawione w Google.
Mamy startowanie systemem.
Jest, no wszystko, co może być, to jest.
No po prostu cudo. Już myślałam, że będę musiała używać
papierowego kalendarza w brailu na ścianie.
A jednak.
A jednak. A druga rzecz, którą chciałabym zasygnalizować, to to, że też przez chwilę
sobie zobaczyłam na to audio nowe. I ogólnie nie wiem, jak to było, ja chyba spałam pod kamieniem,
ale jest strasznie dużo nowych opcji w audio, co do generowania muzyki. Już nie ma tych 30-sekundowych
generacji, w sensie są dalej, ale są też zwyczajne trwające dwie minuty i dziesięć
To już jest od modelu 1.5, który wyszedł chyba w sierpniu.
A, no to rzeczywiście spałam pod kamieniem.
No nadal to nie są cztery minuty jak w suno, ale już lepiej.
Natomiast tak, jest w zaawansowanych…
Większość też już była w tym 1.5.
Jest jedna opcja, która jest nowa chyba.
Jak ja to próbuję zmieniać, to on mnie kieruje do płatności.
Ale jaka to jest opcja?
Oj, nie pamiętam. Nie wiem, czy nie…
Oj, nie, nie pamiętam.
To jest jakaś z tych list rozwijanych.
Chciałem to sprawdzić, co tam jest dalej,
ale wtedy mnie przenosi na stronę płatności.
Okej. No i dalej…
Uploadowanie plików jest w płatnej wersji,
także jak ktoś też przegapił trochę rozwój tego audio,
no to przy okazji otrzymał podsumowanie.
Ale szczerze mówiąc, właśnie jakoś tak zaniedbałam, nie wiem czemu,
to audio, no pewnie dlatego, że drażniły mnie te 30-sekundowe generacje,
Ja teraz przynajmniej mogę się już nieco bardziej pobawić.
To jest jedno. I on miał dużo problemów z językiem polskim.
To znaczy, część generacji on strasznie kaleczył ten język.
On miał złe wykrywanie języka chyba.
Teraz już jest chyba z tym lepiej nawet,
ale nie będę tego przesądzać, bo zrobiłam…
Trzeba by potestować rzeczywiście i ileś tego zrobić.
Zrobiłam dwie piosenki, z czego jeden to był instrumental, więc nie mam obecnie kompetencji, żeby cokolwiek mówić.
No ale to są te dwie rzeczy, które chciałam zasygnalizować.
To co? Pytanie czy kończymy, czy coś jeszcze ktoś znalazł?
Słyszę ciszę.
Chyba kończymy.
Chyba już nikt nie zadzwoni.
Tak, no ostatnio te audycje długie wychodzą.
Nawet jeżeli newsów jest mało, to i tak audycja długaśna.
No więc zaczynaliśmy, kończymy jak zaczynaliśmy,
ze składem takim samym, czyli Paulina Gajoch, Piotrek Machacz,
Paweł Masarczyk, Michał Dziwisz, Tomek Bilecki.
I do usłyszenia, miejmy nadzieję, za tydzień.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.