TyfloPrzegląd Odcinek nr 241 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Środa, 17 dzień lipca 2024 roku.
To jest w kalendarzu na zegarze 23, 24 już prawie.
Zatem startujemy z 241 wydaniem Tyflo Przeglądu.
Wakacje to jest taka pora, gdzie jedni się urlopują, innym coś wyskoczy.
Jeszcze gdzieś coś się wydarzy u innych, jakaś odmienna sytuacja.
No więc te nasze składy tyfloprzeglądowe to będą się różnić z audycji na audycję.
I dziś tak się akurat złożyło, że wspólnie ze mną te audycje poprowadzą Paweł Masarczyk i Piotr Machacz.
Witajcie.
Ja nazywam się Michał Dziwisz i dziś we trzech będziemy wam opowiadać o różnych technologicznych wydarzeniach
dotyczących przede wszystkim osób niewidomych i słabowidzących,
a jakie będą to wydarzenia, o czym dziś w Tyflo Przeglądzie?
Posłuchajcie.
W tym tygodniu w Tyflo Przeglądzie.
Nowości w czytniku ekranu Orka.
Nie masz Maca, ale chcesz pobawić się systemem?
Uruchom go sobie w chmurze.
Overcast kończy 10 lat i dostaje dużą aktualizację.
Jak z jej dostępnością?
Jak wygląda największy ośrodek szkoleniowy w Indiach?
Co nowego w oprogramowaniu monitorów brailowskich?
Koleo pozwala na wybór miejsca ze schematu w dostępny sposób.
Apple wydało pierwszą publiczną betę swoich nowych systemów.
Wrażenia z używania dekodera Soundbox 4K od Polsatu.
Dodatek Thunderbird Plus do NVDA ułatwi nawigację po liście wiadomości.
Nowa wersja Sell My Braille.
Start Eleven Lapse Reader w Polsce opóźniony do października.
Założyciel Apple Vis poważnie chory. Co dalej z portalem?
Czy duże modele językowe widzą? Są badania na ten temat.
Nowości w grach.
Kącik retro.
Dokumenty Google dostają pełną obsługę Markdown.
Audacity kolejnym interfejsem graficznym do Whispera.
Radio Shuffle.
Wylosuj sobie stację radiową do słuchania.
Eleven Labs uruchamia narzędzie do odszumiania nagrań.
Czym są nagrania mikrofonami przystawkowymi?
Wszystko to a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyfo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne
pod numerem 663-883-600, powtarzam 663-883-600,
oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net
lub z poziomu aplikacji stworzonej na system Windows przez Dawida Piepera.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz dyfropodcastowy serwer Discorda.
Tyle dróg kontaktu do nas. Zapraszamy bardzo serdecznie do korzystania z nich.
A oczywiście przede wszystkim mamy dla Was pokaźną paczkę różnych informacji.
I tymi informacjami zaczynamy się z Wami dzielić już od teraz.
Na dobry początek trochę o Linuxie, bo czytnik ekranu znany z graficznej dystrybucji Linuxa, czyli Orka, ma dla nas jakieś nowości. Będzie coraz lepiej. O tym więcej Piotr.
Tak, będzie coraz lepiej. O dostępności Linuxa ostatnio mówiliśmy dosyć dużo, bo wspominaliśmy o całym nowym tak zwanym stosie dostępności, który w tym Linuxie ma się za jakiś czas pojawić.
No do tego jeszcze nie doszło, ale nie samymi bbhami systemu człowiek żyje, no bo czytnik ekranu orka cały czas też rozwija się osobno na bazie tego, co mamy do tej pory.
I okazuje się, że jest bardzo fajna strona internetowa, która oczywiście będzie podlinkowana,
na której możemy sobie sprawdzać, jakie to nowości się pojawiły.
I tak orka wielkimi krokami zbliża się do wersji 47, która na razie jest jeszcze w wersji alfa,
ale już w tej wersji alfa całkiem sporo nowości się pojawiło, które dotyczą wielu aspektów tej orki.
To są wiadomości wirtualne na 4 lipca, więc to są jak najbardziej zmiany nowe i które cały czas będą jeszcze ulepszane.
No i co takiego na przykład będziemy mogli zobaczyć.
Między innymi jeśli chodzi o obsługę internetu.
Tutaj mamy kilka nowości.
Po pierwsze wsparcie Webkita w aplikacjach GTK zostało ustandaryzowane używając tych samych skryptów, które są używane w innych przeglądarkach.
O co chodzi? No, WebKit, ktoś kto korzysta z iOS’a Safari na przykład czy na iPhone’ie czy na Mac’u może kojarzyć tą nazwę, bo to jest silnik, z którego też Apple korzysta, no to są dwie wersje chyba, ten WebKit, z którego ma Apple, a ten WebKit, z którego korzysta Linux i właśnie GTK głównie, no chyba trochę się od siebie jednak różnią, to są forki, natomiast to jest silnik, który gdzieś jest zbudowany w większości graficznych aplikacji w Linuxie, które na przykład nie są Firefoxem, więc nie wiem, klient poszty,
Evolution na przykład, jeśli jakaś aplikacja wyświetla jakieś internetowe treści no to prawdopodobnie z tego korzysta chyba wyświetl…
jakiś…
pamiętam, że system pomocy
też chyba z tego korzystał
i no to średnio się dało łatwo przeczytać kiedy ostatnio z tego korzystałem
a teraz dzięki tym zmianom
będziemy mogli sobie po prostu włączyć tryb przeglądania i tak jak w Firefoxie czy w Chromie po prostu sobie
chodzić z czołgami po wierszach, skakać po nagłówkach, po łączach.
Tu jest napisane, że wszystkie skróty nawigacyjne powinny działać.
W trybie Focusa na razie coś tam jeszcze jest do usprawnienia.
Tutaj deweloperzy sugerują, żeby włączyć natywne przeglądanie
tak zwaną karetką, kursorem w danych aplikacjach.
Szczerze nie wiem, jak się to robi.
Natomiast tryb przeglądania po prostu powinien działać tak, jak działa
w innych przeglądarkach, a te błędy, o których wspominają autorzy orki, w samym webplicie też pewnie za jakiś czas poprawione powinny też zostać.
Live regions area powinna być lepiej czytana, czyli to są informacje, które strony internetowe podają do automatycznego przeczytania przez czytniki ekranu, tutaj mamy jakieś poprawki.
Wyświetlanie, pokazywanie długości wierszy w trybie przeglądania powinno bardziej odpowiadać temu, co widzimy np. nawigując kursorem po polach edycji, czyli tutaj po prostu te wiersze powinny gdzieś tak samo się układać mniej więcej, jeśli mamy włączony tryb prezentacji, tak zwany, że np. kilka linków jest na jednej stronie.
Mamy poprawki wydajności, Orka nie powinna tak intensywnie sprawdzać stan klawiatury, poprawiono problemy, że czasami Orka nie wykrywała, który link ma Focus i to jest internet.
Mamy też poprawki w LibreOffice, czyli pakiecie biurowym.
Tutaj po prostu jest napisane, że mamy kilka poprawek związanych z czytaniem interfejsu aplikacji w tym pakiecie.
Następnie mamy Thunderbirda i tutaj też mamy poprawki podczas kasowania wiadomości, tam gdzieś fokus się zgubił, teraz to powinno już po prostu działać.
I też Thunderbird po prostu powinien być bardziej responsywny, orka będzie sobie lepiej radzić z, jak to nazwali deweloperzy, spamem wydarzeń, które na aplikację do orki wysyłała.
I ogólne poprawki mamy dużo, kod został wyczyszczony, jakieś stare rzeczy w kodzie, które już nie są używane zostały pousuwane, wydajność powinna być generalnie dużo lepsza, powstała dokumentacja dla deweloperów aplikacji jak pisać dostępne programy na linuxa.
Poprawki, jak orka wykrywa focus.
Mamy takie zmiany bardziej deweloperskie.
Inaczej jest obliczany etykiety pól edycji na przykład.
Giedy to możliwe jest używany po prostu atrybut opisu danej kontrolki, a nie tak jak dotychczas, że orka rozglądała się wokół
wokół np. pola edycji, szukając jakichś pól tekstowych,
jakichś etykiet, które nie zawsze pasowały,
a jeśli teraz aplikacja po prostu ma odpowiedni atrybut etykiety wpisany,
no to zawsze ten atrybut będzie teraz wykorzystywany.
Domyślnie teraz są włączone komunikaty samouczka,
bo nowe aplikacje też mogą własne komunikaty dodawać,
no i dzięki temu one będą automatycznie czytane dla nowych użytkowników.
Coś, co moim zdaniem nie wiem, czy jest do końca dobrym pomysłem, natomiast tutaj na taki krok się zdecydowano.
Tryb pomijania klawiszy, więc no mamy w worce skrót, który pozwala nam gdzieś przepuścić następny klawisz do aplikacji.
Został zmieniony w taki sposób, że teraz działa jako przełącznik, a nie tak jak dotychczas, czy w innych czynnikach ekranu na przykład,
że naciskamy ten skrót raz, klawisz jest ignorowany następny, no a w worce teraz to wygląda tak, że no jest po prostu przełącznik.
czyli wyłączamy i włączamy sobie skróty klawiszowe tak naprawdę.
W sumie fajnie jakby były dwie opcje, to znaczy np. no nie wiem, podwójne naciśnięcie tego skrótu
albo jakieś zupełnie dwa inne skróty, bo ja jestem sobie w stanie wyobrazić taką sytuację,
że możemy chcieć coś takiego włączyć na stałe,
ale wydaje mi się, że częściej jednak potrzebujemy po prostu wykonać jakąś jedną akcję,
a później niech ten czytnik ekranu dalej używa i przechwytuje te swoje klawisze.
No właśnie, tutaj klawiatura numeryczna na przykład będzie pierwsza rzecz, która mi do głowy przychodzi, no w sumie myślę, że to byłoby lepsze rozwiązanie faktycznie.
Mamy poprawki w wirtualnym klikaniu myszką.
Jeśli mamy w tym nowym graficznym środowisku Wayland włączone czytanie myszką jest poprawione, odzyskiwanie aplikacji gdyby jakiś błąd wystąpił, orka już się po prostu nie powinna wysypywać.
Generalnie powinna mówić mniej, kiedy mówiła za dużo, nie były czytane zmiany, zaznaczenia w zwiniętych listach rozwijanych, to już też zostało naprawione, poprawki czytania tabelek w aplikacjach GTK, poprawki przycisków w pokręteł,
Również poprawki w czytaniu menu i aplikacji, tutaj takich mamy znów zmieniane, bardziej developerskie, ale np. kiedy zaznaczamy większy akapit tekstu, np. no nie wiem, naciskamy ctrl-a, żeby zaznaczyć wszystko, no albo zaznaczamy całą np. stronę naraz, no to orka teraz nam będzie po prostu mówiła ile znaków zostało zaznaczone, a nie próbowała wysyłać cały ten tekst do syntezatora.
to pewnie często źle się kończyło, no MVDA na przykład też tak robi, więc myślę, że tutaj całkiem sensowny pomysł.
Czytanie liczby powtórzonych znaków, jeśli sobie tak ustawiliśmy orkę na przykład, żeby nam mówiła, nie wiem, jeśli jest więcej niż na przykład 2 albo 3 znaki interpunkcyjne,
Terena mówi np. cztery kropki i tak dalej.
No teraz te filtry też nie będą włączały się dla znaków alfanumerycznych,
czyli pewnie dla liter, co może się zdarzało.
Orka teraz powinna zawsze mówić pusta, jeśli nawigujemy na pustą linię w wielowieczczowych polach edycji.
I tutaj mamy znów mniejsze poprawki i mamy aktualizację w różnych tłumaczeniach,
jak m.in. w języku polskim, więc orka powinna lepiej się do nas odzywać w języku polskim.
No i pewnie tego będzie jeszcze więcej, bo tak jak wspominałem, ta wersja jeszcze się finalnie nie pojawiła, na razie to jest wersja alfa.
No fajnie, że cały czas ta orka się rozwija, myślę, że jak najbardziej potrzebujemy więcej alternatyw i fajnie byłoby, gdyby ten Linux faktycznie stawał się coraz bardziej dostępny.
Tymczasem zaglądamy do waszych komentarzy, które już się zaczynają pojawiać, jak na razie w formie tekstowej.
Michał do nas napisał.
Cześć! Wiem, że to nie jest właściwe rozwiązanie braku dystrybucji przez Apple, ale homepody są na morele.net.
tylko warto poczatować na dobrą cedę ze 2-3 tygodnie sprawdzając codziennie,
bo potrafi skakać 200-300 zł w górę lub w dół, przepłaca się jakieś 1 lub 2 euro,
albo wcale, liczyłem mniej więcej, nawet na bilety lub paliwo do Drezda lub Berlina z Polski nie starczyłoby.
Warto też zwrócić uwagę, żeby sprzedawcą był Morele, choć nie wiem czy to ma znaczenie, ale skoro jest wybór, to lepiej samo Morele niż inny partner ich marketu.
Tak to są ci, od których dane kilka lat temu wyciekły, więc warto mieć adres poczty z puli funkcji ochrony e-mail w iCloud i numer telefonu jakiś zakupowy i niekoniecznie powiązany z kontem bankowym.
Zresztą przy każdych zakupach gdziekolwiek tak warto, cała reszta klasycznie, włącznie z dostawą paczkomatem,
tylko uwaga na wagę żeby to unieść bo HomePod szczególnie duży trochę waży i warto rozważyć oddzielne paczki dla każdej sztuki.
Mam informacje o kilku udanych zakupach w tej formie więc działa i fajnie że można nawet samodzielnie i bez wyjazdu zagranicznego.
Może komuś się to przyda, szczególnie po ostatnich problemach sonosowych.
Zaczęło się od tego, że miałem do czynienia z zamówieniem, w którym sprzedali iPhona z niemieckiej dystrybucji.
Początkowo byłem zły, ale później bezczelnie sprawdziłem czy nie mają homepodów.
Mieli, więc mam nadzieję, że nie zrezygnują z tego, bo jest to niewątpliwa pomoc,
szczególnie niepełnosprawnym, ze względnie zaufanego źródła i oficjalnego sklepu.
Zbyt zaufanego, żeby w paczkach były cegły, a odebrać można na wiele sposobów,
łącznie za pobraniem, jeśli ktoś tak woli.
Pies pisze niestety nie mogąc słuchać na żywo i nie mogąc samemu przygotować
nagrania prezentacji o HomePodach.
Może tyle co powyżej komuś przyda się z kolejki zaległych tematów do skomentowania.
Homepody wybrałem na dzisiaj.
Trzymajcie się, pozdrowienia.
Dzięki Michale za tę obszerną informację, pozdrawiamy cię również serdecznie.
No a teraz myślę, że możemy przejść do właściwych kolejnych tematów, które mamy.
Było przed momentem o Linuxie, to teraz będzie o Macach.
O Macach, które można sobie przetestować nie mając ich fizycznie na biurku.
Zdaje się, że tak. Mówię, że zdaje się, bo za chwilkę dojdziemy do drobnych szczegółów,
które mogą o wszystkim zaważyć, ale pojawił się taki przeciekawy tutorial w internecie,
taki instruktaż, który spisała Julie Moyna, jest to znana we Francji ekspertka w dziedzinie dostępności cyfrowej.
Ona wpadła na taki pomysł, że to pod kątem głównie testerów dostępności został ten instruktaż spisany, że jeżeli nie mamy Maca,
a chcielibyśmy przetestować, jak tam konkretna jakaś strona, którą audytujemy, działa z voice-overem, to da się to na okrętkę zrobić.
No i na czym polega instruktaż?
Okazuje się, że tak jak jeszcze jak Mikołaj Hołysz był z nami współprowadzącym,
to opowiadał o jednym takim serwisie, albo nawet kilku, teraz nie pamiętam,
gdzie można było sobie wynająć na godzinki maszynę z Windowsem.
Tak, istnieją podobne serwisy do Maców.
To bazuje w dużej części na jakimś serwerze, który stoi na iMacu
i dostajemy tam swojego użytkownika hasło i się logujemy.
No i co my możemy zrobić?
Często zdarza się tak, ja googlowałem temat i tych serwisów jest niby kilka,
ale też nie tak wiele.
Mam wrażenie, że takie dwa, które najbardziej się gdzieś tam przewijają
to jest Mac in Cloud i Rent a Mac albo Rent your Mac,
nie mogłem tego na szybko teraz znaleźć,
które oferują właśnie takie Maci w chmurze.
No i istnieje taki wariant tej usługi, w którym te maki są udostępniane nam po protokole VNC.
No i tu się zaczyna pewna trudność tego instruktażu, bo niestety do pierwszego połączenia z makiem będziemy potrzebowali wzroku.
VNC niestety nie umożliwia nam transmisji dźwięku, więc do pierwszego połączenia z naszym wynajętym MACiem będzie nam potrzebna osoba widząca.
Wedle tej instrukcji powinniśmy nawiązać połączenie po VNC przez TinyFVNC albo jakikolwiek innego klienta tego protokołu.
Zainstalować, oni tu polecają takie oprogramowanie jak Jump Connect, ja w życiu z tym nie pracowałem, nie wiem czy to jest jakkolwiek dostępne, ale ponoć zaleta jest taka, że przesyła dźwięk i tutaj to też nie jest taka do końca prosta operacja, bo tam trzeba na wiele rzeczy na tym zdalnym Macu zezwolić, żeby ten dźwięk się nam ładnie przesyłał.
I to jest wszystko w tej instrukcji, ona jest niestety w języku francuskim, ale da się ją spokojnie przetłumaczyć translatorem na język polski.
Da się poustawiać te wszystkie dźwiękowe parametry i jakieś zezwolenia, jakieś tam głębsze hooki w system, jakieś tam podpięcia i powiązania.
No i kiedy już to zrobimy i skonfigurujemy cały Jump Connect, no to wystarczy już teraz nam się logować z Jump Connecta na Windowsie i dźwięk będzie przesyłany.
Ale ja sobie pomyślałem i też jestem ciekaw, tak teoretycznie, czy to by zadziałało, gdyby tam po prostu podpiąć RIM-a, Remote Incident Managera, który działa na Macu i pozwala nam też na transmisję voice-overa na nasz komputer zdalny, z tego co rozumiem, tylko tu nam już wchodzą konkretne koszty, bo będziemy płacić za Maca w chmurze i będziemy płacić za RIM-a.
Także trzeba sobie rozważyć, która opcja jest lepsza i czy w ogóle to jest opcja
dla nas. Ja patrzyłem na cennik tego Mac & Cloud
no i niestety tam np.
opcja z tym, że działa w VNC zaczyna się dopiero od 50 dolarów miesięcznie.
No więc kurcze.
Może jakby ktoś chciał przez miesiąc się
pobawić Maciem i stwierdzić czy to jest coś albo złożyć się z kimś.
To by była może jakaś opcja.
Wszystkie tańsze pakiety zakładają połączenie przez RDP, a tu nie wiem jak to działa, RDP między Windowsem a Maciem, czy w ogóle to działa.
Nawet nie wiedziałem, że tak się da.
Ja też właśnie nie wiem, nie wiedziałem co i nie mam pojęcia czy dźwięk w takiej konfiguracji w ogóle jakoś działa, albo czy da się tam mimo wszystko na przykład zainstalować jakiś program, który będzie przepuszczał dźwięk, czy oni się jakoś zabezpieczyli i nie będą tego honorować.
Nie mam pojęcia. Na pewno nie mamy w takich tańszych konfiguracjach dostępu do ruta.
Więc tu jest pytanie, czyli tych praw administracyjnych, więc pytanie, czy one nie byłyby niezbędne do tego, żeby takiego RIM-a zainstalować i wszystkich uprawnień mu udzielić.
No właśnie, tu będzie chyba problem w ogóle z tymi uprawnieniami, które trzeba w tym specjalnym trybie, prawda Piotrze?
Tak, właśnie do tego chciałem dotrzeć, bo RIM wymaga rozszerzenia jądra do obsługi klawiatury, przynajmniej tak to tłumaczą autorzy.
I tam, no właśnie, nie dość, że trzeba zezwolić na urozumienie ekranu, na dźwięk, czyli pewnie to samo co z tym Jump Connectem, więc tutaj też będzie trzeba się przeklikać, ale oprócz tego właśnie jeszcze trzeba zrobić to.
Wirtualne maszyny wspierać to wspierają. Lokalnie robiłem takie rzeczy, na przykład na potrzeby podcastu o hijacku.
Czy my jesteśmy w stanie taki wirtualny system wprowadzić w ten stan sami?
Nie wiem.
Pytanie co do punktów, czy np. dałoby się nałówić support tej firmy, żeby nam coś takiego zrobili?
No tak, to jest ciekawa sprawa, pewnie trzeba by napisać i sprawdzić.
Natomiast nie wiem też z jakiego serwisu korzystała Julie, więc nie wiem gdzie jest ten Jump Connect i za ile zadziałał.
To jest też dobre pytanie.
Na pewno tam jest jeszcze mnóstwo informacji o tym, jak skonfigurować voice overa, żeby dodać francuski, w naszym wypadku polski głos, układ klawiatury, bo to wszystko oczywiście rusza domyślnie po angielsku.
Także temat jest ciekawy, zarzucam go tak Wam, bo może ktoś rozważał jakieś zabawy Maciem, a niekoniecznie chce od razu inwestować w całą maszynę.
Jeżeli będziecie mieli jakieś ciekawe rezultaty z tą metodą, to dajcie nam znać, bo chętnie usłyszymy od kogo bierzecie te maki w chmurze i na ile ciężka rzeczywiście jest taka podstawowa konfiguracja tego, żeby to wszystko ze sobą współgrało i chciało działać.
A fakt faktem, jeżeli udałoby się to ogarnąć przez Rima, to opóźnienia mogłyby być naprawdę niskie i to rzeczywiście miałoby szansę, żeby działać fajnie.
No ciekawe, ciekawe. Jeżeli ktoś jest makiem zainteresowany i chciałby sobie to tak potestować, a może właśnie nawet i też pracuje po prostu w działce dostępnościowej
i byłoby to dla niego przydętne zawodowo, to również myślę, że warto zgłębić temat.
Tymczasem mamy telefon, Magda jest z nami po drugiej stronie, witaj.
Tak, dzień dobry, witam bardzo serdecznie.
Ja tak w ogóle, tak w ogóle też chciałabym troszkę nawiązać do firmy Apple,
a mianowicie temat może tak, czy słyszeliście państwo o innej ciekawej aplikacji,
która się nazywa LocalSense, która pojawiła się na blogu podejrzewam pani Agaty czy Agi Juraszek, to się nazywa.
Jabłuszkowy świat.
Tak, tak, tak, tak, tak, tak, ona też trochę traktuje o tym, ja nie miałam możliwości zapoznania się dokładnie z tą aplikacją,
Ale ona z kolei mówi o tym, nie wiem czy to już było wcześniej powiedziane, że można przesyłać dane, co też wielu na pewno słuchaczom tyfloradia na pewno ułatwiłoby życie, można przesyłać lokalnie pliki.
Ja tą aplikacją kiedyś się bawiłem, to było już jakiś czas temu, ale rzeczywiście ta informacja z Jabłuszkowego Świata to mnie też jakoś motywuje do tego, żeby do tej aplikacji wrócić,
bo jak bawiłem się nią, no to już kilka, jak nie kilkanaście ładnych miesięcy temu, to ona mnie jakoś specjalnie w ogóle nie zachęciła do tego, żeby ją zgłębiać, bo ona dość słabo była dostępna.
Ale całkiem możliwe, że ktoś tam po prostu przysiadł nad tym albo z upełnym przypadkiem jakoś ta dostępność się poprawiła i działa to najzwyczajniej w świecie lepiej.
To mnie temat jakoś tak zainteresował i zastanawiam się czy nie wrzucić albo czy ty Michał nie wrzuciłbyś, czy ty nie wrzuciłbyś po prostu linku do tego posta na blogu.
Jasne.
Pod audycją.
Nie ma najmniejszego problemu.
A jeszcze mam takie jedno pytanie dość proste.
Ono też dotyczy Apple’a, gdyż przez długi czas byłam bardzo wielką przeciwniczką Face ID.
Wydaje mi się, że wiele osób wie o tym, ale stwierdziłam, że w pewnym momencie przeproszę się z tą częścią ustrojstwa,
jako że mam i telefon firmy Apple, i zegarek firmy Apple, i komputer firmy Apple, i wszystko firmy Apple, niemalże.
No i tak sobie, przynajmniej teoretycznie słyszałam, że można odblokowywać telefon zegarkiem, a u mnie niestety to nie działa.
Nie wiem, bo widzę, że tutaj na antenie są osoby bardzo kompetentne w dziedzinie sprzętu Apple, więc po prostu chciałam zapytać, jakie wy macie doświadczenia.
Korzystam z iPhone’a 13 mini i korzystam z zegarka SE2 Cellular.
Musiałbym jeszcze sprawdzić jak to wyglądało.
Na pewno taka możliwość się pojawiła.
Ona konkretnie się pojawiła w czasie pandemii, tak, no bo wtedy wszyscy mieliśmy
maseczki, no i przez to Face ID po prostu nie działało, więc Apple miało
taki, to się gdzieś włączało chyba w ustawieniach Face ID, to chyba cały czas
jest, to nie zostało chyba usunięte, tylko mówię teraz nie pamiętam, chyba to się w
Tak, to było w kodzie, to niby w kodzie, odblokuj zegarkiem, czy jakoś tak, bo to było Face ID i iCode, czy coś takiego.
Tylko, że tam chyba, Magdo, diabeł tkwi w szczegółach, mianowicie w tym komunikacie, że to działa tylko wtedy, kiedy na twarzy masz maseczkę.
Właśnie miałam powiedzieć, z tego co pamiętam, to tak wygląda, że po prostu system wykrywa, że jest nasza twarz, owszem, ale on nie może wczytać i wtedy automatycznie sprawdza,
czy mamy akurat zegarek i wtedy ewentualnie ten telefon jest odblokowywany.
Nie wiem, akurat tego nie sprawdzałem,
to przy okazji mogę powiedzieć, że to też działa w drugą stronę
i to akurat robię to dosyć często.
Jeśli nie chce nam się wpisywać kodu do naszego zegarka za każdym razem jak go zakładamy,
no to wystarczy, że weźmiemy do ręki telefon i go odblokujemy
i to generalnie powinno spowodować, że nam zegarek się automatycznie też odblokuje.
Ale w drugą stronę, no właśnie z tego co kojarzę, to wygląda właśnie tak jak mówił Michał,
że system wykrywał, że nie może naszej twarzy
zczytać i dopiero wtedy ewentualnie zegarek był wykorzystywany
do odblokowania telefonu. To jest pewnie kwestia bezpieczeństwa,
tak, żeby nie najwyżej ktoś tam powiedzmy wziął telefon z ręki,
próbował się oddać, ale jeszcze zdalnie np.
próbował go odblokować przez zegarek.
No tak. No i jeszcze tak nawiązując do poprzedostatniego
tyflo przeglądu, muszę powiedzieć wszystkim radiosłuchaczom,
że ta nasza petycja cieszy się ogromną popularnością i
muszę powiedzieć, że byłam bardzo w to zaangażowana
jestem dalej bo nawet nawet rok temu czy jakoś tak nie
wiem półtora roku temu zastanawiałam się jak to
ugryźć nie wiem czy osoby które które nie wiem czy
niektóre osoby Michał chyba z tobą na ten temat rozmawiałam
czy trochę nie wiedziałam jak się do tego tematu zabrać
żeby ta Siri była po polsku i teraz muszę powiedzieć, że
mamy 16000 osób które podpisały się pod tą
Czyli rzeczywiście, bo miało być 10 tysięcy, więc jest szansa na to, że ta petycja rzeczywiście zostanie jakoś profesjonalnie zredagowana, złożona do UOKiKa i ja podejrzewam, że przynajmniej Apple będzie się musiało jakoś oficjalnie do tego odnieść.
jakie to rzeczywiście odniesie skutki, no to już jest zupełnie inna sprawa, natomiast przynajmniej ktoś tam się z zarządu albo wysoko postawionych pracowników Apple’a będzie musiał nad tym problemem zgłaszanym przez Polaków pochylić.
Bo są osoby też sceptycznie nastawione mówiąc, o to Apple to korporacja, nic to nie da, ale ja wierzę, że…
No bo to jest korporacja, ale przynajmniej zawsze można spróbować, tak? Od takiego podpisu nikt nie zbiednieje, a rzeczywiście możemy coś tym zyskać.
Tym bardziej, że jeszcze w kontekście dostępności, to ja sobie też zresztą nagrywając dziś do ciebie wiadomość gdzieś tam zaległą,
to uświadomiłem sobie też, że tak naprawdę to i z tego dostępnościowego punktu widzenia my też jesteśmy gdzieś tam poszkodowani chociażby przez działające znacznie gorzej w polskiej wersji iOSa rozpoznawanie ekranu.
Nie wiem, nie testowałam tego.
No bo w systemie cały czas nie mamy polskiego rozpoznawania OCR.
No i przez to rozpoznawanie ekranu też nam nie czyta wielu, na przykład etykiet przycisków.
No i to jest właściwie przykre, chociaż ta petycja jest ogólnodostępna,
bo ona bardziej, ona była pisana przez osoby widzące,
więc nikt tam może nie znać, autor mógł nie znać takich szczegółów,
ale też dotyczy nas w takim sensie, że na pewno wielu osobom niewidomym,
nie tylko Siri w języku polskim, by pomogła,
ale jest też nawigacja aplowska.
Nie wiem, jak to się profesjonalnie nazywa,
ale jest dokładniejsza nawigacja,
może ktoś mi podpowie.
Jest coś takiego, jest aplowska nawigacja,
która działa oczywiście w innych językach, ale nie w naszym.
No i ja właśnie, tak jak mówiłam, wszędzie rozsyłam tę petycję
i było mi bardzo przykro, że mnie odrzuciła
administracja Grupy Niewidomił i Niedowidzący Bądźmy Razem.
No bo jednak zazębia się to o petycję,
podczas gdy dzień temu została wpuszczona w ich grupę
Inna petycja dotycząca Roku Dostępności, więc tutaj też widzę pewną niekonsekwencję, chociaż no wiadomo, ja nie moderuję tą grupą, ale no nie ukrywam, że jestem trochę zawiedziona, bo to…
No tam jakby argumentacja była taka, że to dotyczy, że to dotyczy tych jakby funkcji dla wszystkich użytkowników, nie dotyczy bezpośrednio osób niewidomych.
Więc ciężko z taką argumentacją dyskutować, natomiast właśnie ja odnosząc się gdzieś do tego, to tak sobie pomyślałem, że przecież no fakt, że to nie zostało wyszczególnione w tej petycji, może fajnie by było w ogóle gdzieś, kiedy będzie redagowane już to pismo ostateczne do Apple’a, to podnieść ten temat, chociażby tego rozpoznawania ekranu.
No bo skoro już się na coś tam skarżymy, to może i przy okazji ten kamyczek warto by dorzucić.
Tak, byłoby miło. Będę na pewno badać tę sprawę.
I poproszę Cię Michał, żebyś mi dokładnie wypisał.
Będę się starała jakoś znaleźć autora,
znaleźć autora petycji do niego, napisać, może mi się…
Ja tylko mam nadzieję, że ta Siri, gdyby nawet już weszła po polsku,
będzie działać lepiej niż obecnie nawet po angielsku,
bo to, co ja ostatnio obserwuję w mediach społecznościowych typu Mastodon,
gdzie jest dużo osób niewidomych anglojęzycznych,
to jest wątek skarg i narzekań na to, jak ta Siri nie działa.
I że nawet jak to już nawet nie jest kwestia tego triku,
że trzeba poczekać sekundę od aktywacji,
bo ludzie nawet piszą do Siri
i najbardziej podstawowe polecenia gdzieś się rozpadają.
Ktoś prosi o otwarcie aplikacji, wysyłany jest SMS,
ktoś prosi o godzinę, otwierają na sobie ustawienia
I coś z tą Ciri, nawet w tym języku angielskim, który jest pierwszym jej językiem, dzieje się naprawdę, naprawdę niedobrego.
To znaczy, ja jeżeli mogę powiedzieć, ja korzystam z Ciri w zakresie podstawowym.
Dlaczego w podstawowym? Dlatego, że nie mogę korzystać w sposób bardziej zaawansowany, bo jednak kiepsko sobie radzi z diakrytykami.
Ale ja np. nie widzę takiego, nie wiem jakie wy macie doświadczenia, ale ja np. nie widzę takich problemów jak np. proszę ją o otwarcie czegoś czy o podanie statusu baterii czy godziny, no to ja np. nie widzę żeby ona robiła jakieś dziwne rzeczy, nie wiem.
U mnie dzwonienie nie działa, to jest jedyne z czego ja korzystam, że call.
I na przykład ja też piszę, bo ja znowu mam takie zboczenie troszeczkę z czasów
androida, że miałem ekran główny, launcher imitujący termina linuxowy
i klawiaturą brailowską spisywałem komendy, po prostu zadzwoń gdzieś tam, napisz smsa
gdzieś tam, więc trochę się do tego przyzwyczaiłem
i do Siri mojej piszę, po prostu tak sobie wybrałem i rzeczywiście jak
Jak chce gdzieś dzwonić, to to dzwonienie istotnie działa.
No i komenda, co to za piosenka, też działa.
Więc to są dwie rzeczy chyba, z których korzystam.
No ha. Ja akurat do rozpoznawania piosenki używam aplikacji Shazam.
Jakoś tak też ja z kolei tak wolę.
Na tym jest bardziej do Siri.
Do Siri bardziej mówię niż piszę,
aczkolwiek czasami śmieszne sytuacje wychodzą,
jak ona przekręca nazwy polskich kontaktów.
ale jakby liczę się z tym, jak już wiem, jak ona mniej więcej to wypowie,
no to tak staram się, staram się to tak jakby zangielszczyć.
Tak, więc, więc zobaczymy, zobaczymy jak to wszystko,
jak to wszystko przebiegnie z tą petycją.
Ja jestem mimo wszystko pełna nadziei, może nie pełna,
ale kiełkuje we mnie jakaś nadzieja.
I a co do zegarka, no to zobaczymy, jak to założę maseczkę, sprawdzę.
No i zobaczymy jak to, czy to zadziała, czy to nie zadziała.
Bardzo dziękuję, bardzo dziękuję za rozmowę.
Dzięki Magdo za telefon.
I do usłyszenia kiedyś.
Do usłyszenia.
Jeszcze to nie koniec waszych wypowiedzi, bo teraz będzie wypowiedź tekstowa z kolei autorstwa naszego słuchacza Łukasza.
Łukasz napisał do nas na YouTubie.
Cześć. Na Blindshellu działa serwis bankowości elektronicznej PKO Banku Polskiego.
Działa też logowanie do stron urzędowych przy pomocy profilu zaufanego Pozdrawiam.
Dzięki Łukaszu za te informacje. Myślę, że dla niektórych użytkowników będzie ona istotna.
Zwłaszcza dla tych, którzy korzystają z Blindshella i być może zastanawiają się nad wyborem banku.
A teraz przechodzimy do kolejnej informacji, informacji jubileuszowej, otóż Overcast kończy 10 lat. I co z tej okazji Piotrze?
No to z tej okazji, no pan Marko Arment, czyli główny, jedyny nawet można powiedzieć programista, który nad tą aplikacją pracuje, no postanowił ją po prostu odświeżyć.
A przez odświeżyć rozumiemy napisać od zera, jedyne co zostało to fundamenty, czyli mianowicie silnik
odtwarzania audio, który jest odpowiedzialny za te funkcje, za które overcasta cenimy.
Takie rzeczy jak usuwanie automatycznie ciszy, przyspieszanie, wyróżniwanie głośności.
To są gdzieś takie, wydaje mi się, sztandarowe funkcje overcasta.
Jeśli ktoś overcasta nie zna, to jest aplikacja, o której mówimy dosyć często.
to nawet o przeglądach niedawno wspominaliśmy o nim przy okazji rozmowy o rozdziałach w podcastach na przykład.
Aplikacja jest o tyle ciekawa, że tak naprawdę oferuje praktycznie wszystkie swoje funkcje zupełnie za darmo
i no naprawdę ma wszystko czego można by oczekiwać z takiej aplikacji.
Mamy powiadomienia, mamy właśnie te wszystkie dodatkowe funkcje, które pozwalają nam podcasty
przyspieszać sobie, wycinać jakieś dłuższe przerwy w wypowiedziach, co też się bardzo często przydaje.
Oczywiście możemy subskrybować wszystkie podcasty, chyba o połowinie jak wspominałem.
Mamy oczywiście wsparcie dla rozdziałów, co w Tyflo Przeglądzie na przykład jak najbardziej może się nam przydać.
Jest bardzo rozbudowane wsparcie dla skrótów, więc jakby ktoś chciał sobie na przykład własne komendy do series stworzyć,
żeby otworzyła nam konkretny podcast, przeskoczyła do konkretnego oddziału, rozdziału.
Nie muszą też być polecenia CD, bo równie dobrze możemy sobie na przykład taką rutynę poranną
ustawić, która by nam na przykład najpierw przeczytała pogodę, a potem włączyła ulubiony podcast z wiadomościami na przykład.
Pomysłów jest wiele i Overcast na to wszystko pozwala.
Jeśli chodzi o tą nową wersję, no to ona została napisana głównie w tym nowym systemie SwiftUI do pisania aplikacji, który Apple ostatnio promuje.
To jest cały czas głównie aplikacja na iPhone’a i iPad’a, cały czas darmowa, natomiast oczywiście cały czas też na Mac’u działa.
Interfejs został troszeczkę przebudowany, natomiast idea jest taka, że osoby, które tą aplikację znają, nie powinni zauważyć różnicy.
Jak jest dostępnością tej aplikacji?
Zanim myślę, że do tego przejdziemy,
to warto powiedzieć o tym, co powiedział sam autor, bo przy okazji
postu na blogu, w którym mówi o tej nowej wersji, pojawił się też odcinek podcastu
Accidental Tech Podcast, który on akurat prowadzi też i w tym podcastie również
rozmawiali o tej nowej wersji Overcasta i m.in.
i wspomniał o dostępności, że to jest coś, na co zawsze zwracał uwagę i nadal zwraca uwagę.
Starał się, żeby ta aplikacja była jak najbardziej dostępna, ale jak sam powiedział,
no ma kilku gdzieś niewidomych testerów na testflightie, natomiast dla niego zawsze takim
najlepszym sposobem na sprawdzenie dostępności aplikacji to po prostu ją wypuścić,
a jeśli ktoś coś znajdzie, jakiś błąd użytkownicy voiceovera, żeby po prostu do niego napisać.
Więc tak zrobił, ta aplikacja się pojawiła i co mogę o niej powiedzieć?
No dostępna jak najbardziej cały czas jest, natomiast jest kilka rzeczy, które na ten
moment troszeczkę działają gorzej niż kiedyś, natomiast wiem, że wiele z tych
rzeczy będzie stopniowo naprawiane.
Już Jonathan Mosen napisał na przykład, że na testfajcie pojawiła się wersja beta,
która większość z tych rzeczy rozwiązuje, więc pewnie to jest kwestia dni, może
tygodni, kiedy ta aktualizacja pojawi się dla wszystkich, ale jeśli ktoś sobie
wszystko zaktualizował, otworzycie tego overcasta, no to nie przestraszcie się.
Cały czas wszystkie wasze podcasty będą na swoim miejscu, natomiast nie będziecie
na przykład słyszeć ile mamy nieodsłuchanych odcinków w danym podcastie.
Tego po prostu nie wiem, czy to wizualnie też już nie jest wyświetlane, natomiast
VoiceOver nam tego nie przeczyta.
Mamy też rozbudowane wsparcie playlists, no bo możemy w tej aplikacji tworzyć sobie playlisty i teraz te playlisty są bardziej zaawansowane, możemy sobie różne reguły w tych playlistach tworzyć, więc moglibyśmy np. sobie
słożyć playlistę, która nam wyświetla tylko najnowsze odcinki z, powiedzmy, tylko dwóch podcastów, więc na przykład moglibyśmy sobie zrobić playlistę, której są odcinki tylko Tyflo podcastów i na przykład, nie wiem, Living, BlindFood i jakichś podcastów technologicznych, mówiących o tematach związanych z osobami w domini,
na przykład mieć inną playlistę na inne podcasty, które mówią gdzieś o innych rzeczach.
No pomysłów na to jest dużo, te playlisty też mamy teraz na ekranie głównym, więc możemy sobie je przypinać,
jeśli ktoś z tego chce korzystać intensywnie, no to można to zrobić w ten sposób.
Kiedy wejdziemy sobie do jakiegoś podcastu, no to tutaj też zauważymy drugą różnicę.
Tutaj też te większe rzeczy, które naprawione zostaną niebawem, natomiast na samej liście odcinków nie są już np. czytane opisy, one wcześniej były częścią podpowiedzi na każdym odcinku, więc jeśli mieliśmy podpowiedzi w VoiceOverze włączone, no to nam aplikacja te opisy generalnie czytała, teraz na ten moment tego niestety nie robi.
i obok każdego odcinka będziemy też mieć przyciski info, więc jak będziemy sobie
przesuwać palcem w prawo, no to jeden odcinek będzie stanowił tak naprawdę
dwa elementy, sam podcast i przycisk info.
Wcześniej mieliśmy na pokrętle też dużo czynności, tam było odtwórz,
dodaj do kolejki, tych czynności było kilka.
No teraz mamy czynność jedną mianowicie usuń i to też ma być poprawione te wszystkie inne opcje o których mówiłem właśnie są między innymi pod tym przyciskiem info jak zresztą i opisanego odcinka on też po prostu tam jest schowany gdy jeśli stukniemy na sam odcinek to wcześniej to powodowało że wyskakiwało menu i tam mogliśmy kliknąć otwórz to się nam automatycznie zaczęło odtwarzać a teraz to wygląda tak że kiedy naciśniemy na jakiś
tytuł odcinka, no to w pierwszej chwili może nam się wydawać, że nic się nie dzieje.
No to nieprawda.
Obok odcinka, pod spodem, wyświetla się takie malutkie poziome menu z takimi trzema,
po czterema przyciskami od lewej do prawej.
VoiceOver po prostu nas nie informuje, że to się pojawiło.
Focus nie jest w to miejsce przenoszony, więc po prostu musimy o tym wiedzieć.
Pewnie to też będzie poprawione.
przypuszczam, że w przyszłej wersji no to te przyciski pewnie będą pod czynnościami, ale pewnie też jak wstrógniemy w ten odcinek, to po prostu to menu będzie jakoś nam oznajmione, pewnie focus na nie przejdzie, ale dobra, jeśli już o tym wiemy, klikamy odtwórz, no i co teraz, jeśli mamy overcasta skonfigurowanego tak, że nam do odcinki automatycznie pobierał, bo można było tak zrobić wcześniej, no to po prostu ten odcinek nam się zacznie odtwarzać.
Natomiast, jeśli jesteśmy przyzwyczajeni do strumieniowania naszych podcastów, ja np. tak lubię po prostu, bo słucham ich w różnych miejscach, a też z reguły słucham podcastów, które są dosyć długie, które mają rozdziały, więc jak gdzieś słucham tak, że zaczynam odtwarzać jakiś odcinek sobie, często w miejscach, gdzie internet nie jest tak dobry jak w domu i później rozdziałami przechodzę do fragmentów, które mnie interesują, np. żeby dla was informacje jakieś zebrać,
No to i miałem overcasta skonfigurowanego tak, że odcinki nie pobierały się tylko miały być strumieniowane.
To wyobraźcie sobie moje zaskoczenie, kiedy nacisnąłem odtwórz, nie czytając posta na tym blogu, o którym mówiłem i wyświetlił mi się ekran odtwarzania, praktycznie puste, tylko z jednym komunikatem.
Trwa pobieranie.
No i sobie to wisiało minutę, bo akurat wtedy byłem w miejscu, gdzie ten internet był gorszy.
No ale kiedy już to się pobrało, to ten odcinek zaczął się odtwarzać.
O co chodzi? No niestety wszystko generalnie do tej nowej wersji zostało przeniesione.
Oprócz jednej rzeczy, która nie wróci i to już mamy oficjalnie potwierdzone,
a to jest mianowicie właśnie strumieniowanie, czy właściwie odtwarzanie odcinków
w momencie, kiedy one są w tle pobierane.
Dzieje się tak głównie z powodu dużych sieci podcastowych,
które dynamicznie wstrzykują do audycji i reklamy.
na podstawie naszego adresu IP, też są profilowane na różne sposoby i to powodowało to, że właśnie to strumieniowanie się psuło.
Na przykład ktoś sobie coś próbował przewijać, to często gdzieś te rozdziały się rozjeżdżały.
Były z tym niestety różne błędy i po prostu strumieniowanie zostało z aplikacji usunięte.
Marko tłumaczy, że generalnie w przypadku większości osób dzisiaj internet jest na tyle szybki, że to nie powinno dać tam góry kilka sekund do odtwarzania.
Ja bym się zastanowił osobiście, mi akurat tego trochę brakuje, ale jeśli i tak zawsze korzystaliście z tej aplikacji w taki sposób, że pobieraliście sobie te podcasty,
zakorzystaliście z tego właśnie bardziej offline, no to tutaj no za dużo Wam się nie zmieni,
ewentualnie po prostu będziecie musieli tą chwilę poczekać, kiedy odcinek już nam się odtwarzać zacznie.
Jak kiedyś już się zacznie, no to generalnie wszystko jest mniej więcej na swoim miejscu.
Natomiast na ekranie odtwarzania też zmieniła się jeszcze jedna rzecz.
Nie wiem, czy to jakoś zostanie kiedyś uproszczone dla nas i to jest też coś, co mnie troszeczkę irytuje.
A mianowicie jeśli chodzi o rozdziały, w poprzedniej wersji to wyglądało tak, że na głównym ekranie odtwarzania mieliśmy informację jaki rozdział akurat odsłuchujemy i to chyba nawet cały czas zostało.
Ale mieliśmy też dwa przyciski, lista rozdziałów i następny rozdział, więc mogliśmy sobie w bardzo łatwy sposób przejść do następnego rozdziału.
Teraz tego po prostu nie ma.
Mamy cały czas przyciski, które możemy sobie skonfigurować, o ile sekund mają nam ten podcast przewijać.
Ale jeśli chcemy się do listy rozdziałów dostać, no to musimy się trochę naszukać.
Bo musimy najpierw nacisnąć na przycisk informacje, który też na ekranie odważalnie jest.
Tam nam się wyświetlą np. właśnie informacje, opis odcinka.
I tam będzie kolejny przycisk, na którym będzie napisane ile dany odcinek ma rozdziałów.
czyli na przykład będzie pisało, nie wiem, 10 czapters na przykład i dopiero jak na to naciśniemy no to wyświetli nam się lista rozdziałów w danym odcinku.
Nie wiem czemu to zostało tak zaszyte za dwoma ekranami jak, nie wiem, moim zdaniem to jest jedna z rzeczy, które najczęściej robię w aplikacji z podcastami.
Może to zostanie akurat zmienione, no myślę, że to jest kwestia do przedyskutowania.
Może dla osób niewidomych jakieś pokrętło, na przykład, niestandardowe?
Bo przeciwwojstower pozwala na takie rzeczy, w sumie to może być ciekawy pomysł.
Będzie trzeba zasugerować.
Natomiast jeśli zaktualizujecie sobie overcasta, no i będziecie rozdziałów szukać, one cały czas tam są, tylko trzeba się do nich przeklikać w odpowiedni sposób, no i one wtedy będą.
Także tak wygląda ta aplikacja na ten moment.
Zobaczymy, jak te aktualizacje będą jej dostępność poprawiać.
Mi osobiście tego streamiowania trochę brakuje.
Słyszałem też głosy, dużo osób jest zadowolonych.
Jest kilka osób, które np. mają iPhone’y z mniejszą pojemnością.
Oczywiście możemy sobie aplikacje skonfigurować tak, żeby te odcinki były kasowane,
kiedy je odsłuchamy do końca.
Marko obiectwuje, że też będzie więcej opcji z zarządzaniem pamięci w jakiś sposób.
No natomiast to na pewno gdzieś będzie wymagało od nas zmian, przyzwyczajeń.
Mimo to, biorąc pod uwagę, że ta aplikacja jest generalnie w większości funkcji darmowa
i tutaj są obiecowane jakieś dalsze nowości, zobaczymy jakie to nowości będą.
To jest cały czas świetna aplikacja.
Nie powiem, no będzie trzeba się faktycznie do niej przyzwyczaić.
Chociaż mnie zainspirowało to, żeby w końcu popróbować różne alternatywy,
jeśli mogę jeszcze na koniec coś dodać.
I tak na przykład ściągnąłem sobie jeszcze PocketCasta i Castro, bo to są też aplikacje, które oferują też te funkcje przyspieszania i usuwania ciszy, zwłaszcza bo na przykład DamCast, którego korzystałem wcześniej, nie ma tej funkcji usuwania ciszy jeszcze dodatkowej.
I jeśli chodzi o Pocket Castle, to jest też aplikacja darmowa, to ciekawe, wieloplatformowa, więc to przemawia na jej korzyść, bo na przykład możemy sobie rozpocząć odsłuchiwanie jakiegoś odcinka na iPhone i na przykład skończyć, albo na Sonosie, albo na komputerze z systemem Windows czy Mac, no to tam napotkałem takie dwa irytujące błędy dostępności, mianowicie wyszukiwałem sobie na przykład właśnie Tyflo Podcast,
bo w tej nowej wersji Overcasta nie ma nawet eksportu OPML, to wróci,
dlatego jeszcze nie zostało zaimplementowane.
Ale wyniki wyszukiwania po GetCascie były niezatykietowane,
więc musiałem na ślepo, że tak powiem, znaleźć odpowiedni podcast
i go zasubskrybować, chociaż nie udało mi się otworzyć listę odcinków
zanim kliknąłem subskrybuj, to też jakoś mi nie chciało działać,
a na samym ekranie otwarzenia ekran efektów też był jakoś słabo dostępny,
Bo te wszystkie przyciski były, przynajmniej dla voice overa, malutkie, więc ciężko mi było, nie udało mi się wszystkich tych przycisków znaleźć na przykład, żeby odpowiednio sobie prędkość ustawić, a co bardziej istotne, gestami lewo-prawo jakoś nie byłem w stanie chodzić po tych przyciskach, więc to był większy problem.
Dlatego jeszcze spróbowałem Castro, które był moment, że było prawdopodobne, że aplikacja zniknie.
Na szczęście znalazła nowych właścicieli, jej stan się ustabilizował, zostały zaktualizowane serwery, już nie ma problemów z powiadomieniami, z przychodzeniem nowych odcinków.
Aplikacja o tyle ciekawa dla tych, którzy nie korzystali, że korzysta z takiego systemu skrzynki odbiorczej, że wszystkie nowe odcinki nam przychodzą do takich skrzynki.
i my z poziomu tej skrzynki po prostu możemy sobie odcinki tak jakby odhaczać, odtwarzać.
Jeśli jakiś odcinek nas nie interesuje to po prostu możemy go z tej skrzynki wyrzucić
i on wtedy trafia do osobnej zakładki biblioteka,
gdzie możemy sobie chronologicznie każdy subskrybowany podcast przeglądać.
Natomiast to mi nawet się spodobało.
Tutaj też mamy te wszystkie funkcje efektów, nawet mamy tych efektów w sumie więcej,
bo tutaj jeszcze możemy sobie ten podcast sumować do mono.
Jakby ktoś tego potrzebował, np. jakieś efekty stereo w jakimś podcaście denerwują, to można sobie to wyłączyć.
Tutaj mamy tą nawigację po rozdziałach, bardzo podobnie jak w Overcastie, nawet o tyle lepszą, że możemy sobie wejść do tej listy rozdziałów i podznaczyć te, które nas nie interesują.
Na przykład ktoś chciałby sobie przesłuchać archiwum Tyflo Przeglądu, bo jakiś temat go nie interesuje, to może sobie rozpocząć otwarzanie nowego odcinka.
Oczywiście cały czas tutaj zrumieniowanie jest.
Wejść do listy rozdziałów, odznaczyć te wszystkie rozdziały, które go nie interesują i po prostu mieć taki spersonalizowany Tyflo Przegląd na przykład i tylko te odcinki, które nas interesują, zostaną odtworzone.
Jedyny minus tej aplikacji jest taki, że no tutaj musimy trochę za to zapłacić.
Większość funkcji między innymi właśnie to wyłączanie poszczególnych rozdziałów, usunięcie reklam, tam mamy parę promowanych podcastów np. wyświetlanych na ekranie odtwarzania czy na liście odcinków, czy dodatkowe efekty np. oprócz prędkości, prędkość mamy za darmo, ale np. usuwanie ciszy już nie.
No to musimy sobie do Castro wykupić amonament, który kosztuje 20 zł miesięcznie lub podajże 130 rocznie.
Teraz chyba coś koło tego, na pewno 20 zł miesięcznie to kosztuje.
Czy wykupię go? Nie wiem, na razie testuję okres próbny, ale nawet muszę przyznać, że ta sytuacja przynajmniej spowodowała, że zacząłem w końcu testować alternatywy.
i nie powiem, że też Castro mi przypadł do gustu, ale Overcast cały czas, myślę, można spokojnie powiedzieć, jest dobrą aplikacją.
Nawet jeśli tam coś minimalnie noga się podknęła, jeśli chodzi o dostępność, to raczej zostanie, naprawiamy.
Ja co do Pocket Casta mogę tylko dodać, że to wyszukiwanie podcastów, które u Ciebie jest niedostępne, u mnie, na pewno u nas obu to wygląda tak samo.
Natomiast kiedyś to było dużo lepiej zrobione, były po prostu podcasty i to był nagłówek, potem odcinki, to był też nagłówek.
Teraz to jest trochę pomieszane, bo teraz oni chcieli zrobić takie jakby kafelki, że oni prezentują te pięć najpopularniejszych podcastów pod nasze kryteria wyszukiwania.
I to wygląda teraz tak, że mamy podcast nagłówek, przycisk show all i pięć przycisków niezaitekietowanych z konkretnymi podcastami.
I te przyciski istotnie są niezaetykietowane, potem tam dalej jest epizod, nagłówek i są odcinki, ale jak klikniemy w show all, to tam już te wyniki są, tylko one są oczywiście, bo muszą być przecież, rozdzielone w ten sposób, że jest tytuł podcastu, wydawca, to jest drugi element jak się przesunie w prawo i potem jakieś ocenianie tego w gwiazdkach.
Więc przesuwanie się między jednym, a drugim podcastem troszkę zajmuje i też trzeba to wyeksplorować palcem, bo jak się idzie po kolei, to się wpadnie w jakiś blok sponsorowany i z tego bloku sponsorowanego wyjść to też jest…
Ja pewnie na to wpadłem, bo nie wiedziałem, że tak trzeba.
Tak, więc to jest, to było kiedyś lepiej rozwiązane.
A tymczasem odbieramy kolejny telefon, kontaktujecie się z nami. Co cieszy, Michał jest po drugiej stronie. Witaj.
Halo, halo, witam serdecznie, witam wszystkich obecnych w studiu.
Z czym do nas dzwonisz, Michale?
Dzwonię z ciekawostką, dotyczącą ciekawostką historyczną, jeżeli by kogoś interesowała, wiem, że zainteresowanie jest,
mianowicie, mianowicie chodzi o portal IPN-u,
który jest dla nas bardzo, bardzo dostępny,
czyli www.opowiedziane.ipn.gov.pl.
I to jest strona, gdzie są naoczni,
gdzie są relacje naocznych świadków historii.
Tam mamy coś takiego jak kategorie i tam mamy II Wojna Światowa, konspiracja, holokaust na przykład.
I możemy sobie wybrać jakąkolwiek kategorię, czyli na przykład Powstanie Warszawskie.
I mamy wyszczególnionych ludzi, którzy się tam wypowiadają.
Klikamy sobie na któregoś powstańca i literką F, jak od pola formularza, szukamy przycisku Play Video, dajemy Enter i bez najmniejszego problemu, bo chodzi o to, że to są wideo, czyli tam tylko widać danego człowieka, który się wypowiada.
No tak, to nie są filmy, to są po prostu bardziej takie występy, wideo, że nie ma tam potrzeby nawet specjalnej audiodeskrypcji, bo jest po prostu narracja tylko danej postaci.
Dokładnie tak, jest człowiek zadający pytanie i osoba opowiadająca.
Także myślę, że ten adres można podlinkować potem, gdy audycja się ukaże.
Wrzuć mi najlepiej jakąś przypominajkę, żeby mi to nie umknęło, to jak najbardziej mogę to zrobić.
Super, a wiem, że zainteresowanie sprawami historycznymi jest, także mówię coś nowego, znaczy portal nie jest nowy, ale po prostu mogło gdzieś umknąć, ja też jak dzwoniłem, nie zdążyłem przekazać.
On funkcjonuje od 2019 roku, się rozbudowywuje o nowe relacje, także jest w czym przebierać.
A druga ciekawostka, druga informacja to jest, wyszło nowe oprogramowanie do nawigacji Stellar Trek
I dodali aktualizację danych satelitarnych.
Czyli co, więcej punktów?
Więcej punktów, tak. I więcej, jakby to rzecz, to co jest nieraz na mapie, czego nie było,
no to znaczy, co na przykład jest naniesione, a na przykład tego nie ma,
no to jakby to rzecz jest aktualizacja, satelit, czyli jakby to rzecz te, co po niektóre rzeczy, których nie ma, no to po prostu znikają już.
Jasne, więc jest po prostu porządek.
Tak, jest porządek, dokładnie.
Jak rozumiem miałeś okazję to przetestować, faktycznie też i dla Polski te aktualizacje są.
Oczywiście, oczywiście. Tam jesteśmy nie pozostawiani bez wyjątku.
Super.
Także z takimi to nowościami dzisiaj przychodzę.
I jeszcze jedna rzecz. Ja to, Michale, też tobie wrzucę.
Jest takie urządzenie, to się nazywa elektryczny obcinacz do paznokci.
Powiem, że ja na przykład maszynkę polecam ze szczerego serca,
dlatego że ona ma kształt takiego prostopadłościanu
i możemy sobie spokojnie za pomocą tej maszynki poobcinać paznokcie.
A jakie ma zalety nad taką obcinaczką ręczną? Z ciekawości, bo trochę ciężko mi sobie wyobrazić jakieś zalety, jakąś przewagę. W jakim sensie może to działać lepiej? Możesz coś więcej powiedzieć?
O, i chyba Michała nam, o jesteś, jesteś, zasięg jakoś na moment się stracił.
Ona ma, ona ma takie jakby koło, takie kółko jakby zębate, taką tarkę, jakby papier ścierny w środku, która po prostu jest,
Ona jest odpowiedzialna za te nasze obcinanie paznokci, ale przede wszystkim ma polerkę, która nam je opiłowywuje, a zaleta jest taka, że przede wszystkim bezpieczeństwo, dlatego że za pomocą tej maszynki nie skaleczymy się w ogóle. Za pomocą obcinaczek niestety możemy się skaleczyć.
Ok, no to fajnie, fajnie Michale, że mówisz rzeczywiście. Jaka cena tego urządzenia?
150 zł.
Ok.
I to można kupić normalnie w internecie, nawet na Allegro. To się po prostu nazywa elektryczny obcinacz do paznokci.
Super, no to dzięki za polecenie w takim razie.
Także bardzo, także bardzo chętnie, mówię, polecę. To w takim razie ode mnie to już wszystko. Trzymajcie się. Wszystkiego dobrego.
Trzymaj się Michale i wzajemnie. Dzięki za telefon.
Trzymajcie się. Do usłyszenia.
Do usłyszenia. A to nie koniec Waszych wypowiedzi, bo jeszcze w kolejce czeka kilka wiadomości od naszego słuchacza Sylwestra.
No to ja się nie dziwię, jeżeli Polaków tam nie ma, nie pracują w Aplu, w tej firmie, nie pracują z Polski, a szczególnie niepełnosprawni, szczególnie osoby niewidome, jeżeli tam nie pracują, to niestety nic nie będzie z tego.
bo nie będzie żadnych dla Polski czy Siri czy innych tych programów czy OCR-ów.
No bo jak tam Polacy nie pracują, to niestety nie będzie, a Ukraińcy zatrudnili się tam w Apple’u.
Bo Ukraińcy sobie załatwili Siri i OCR i te wszystkie aplikacje w Apple i one mają, a my nie, bo nasi nie pracują tam.
A jeżeli w amerykańskiej centralnej Apple, centralnej też Polacy jeśli tam nie pracują, to jak będą dla Polski aplikacje, skąd będą?
że tam w Stanach Zjednoczonych nie pracują.
usług. Nie powiem, że pewnie, bo OCR, umówmy się, nie jest tylko używane przez
czytniki ekranu przez osoby niewidome.
Tak na przykład taką sztandarową funkcją, do której OCR jest wykorzystywana jest tak
zwana funkcja Live Text, która przydaje się osobom widzącym.
To jest coś, co powiedzmy pozwala osobie widzącej powiedzmy skierować aparat na
nie wiem, jakieś np.
ogłoszenie. Widzą ulotkę, gdzie jest numer telefonu i system w czasie rzeczywistym
wykonuje OCR, żeby np. ten numer telefonu znaleźć, tak żeby osoba mogła sobie
stuknąć w niego i po prostu gdzieś zadzwonić, czy po prostu palcem zaznaczać
tekst, jakby dosłownie kopiować tekst ze zdjęcia, tak.
To się dzieje w tle, że osoba nawet nie wie, że tam jest jakiś OCR, coś
wykorzystywane, natomiast to tak działa.
Dlaczego ukraiński był szybciej gdzieś, no pewnie kwestia konfliktu miała
Ja chciałbym tylko zdementować, że nie ma Siri po ukraińsku, jest po rosyjsku, nie po ukraińsku.
No ale po ukraińsku na przykład jest live text właśnie, więc tam pewnie była taka kwestia, żeby łatwiej było jakieś informacje może kopiować.
Ale na przykład inne usługi w Polsce jak najbardziej cały czas są, jakieś bardziej zaawansowane mapy były.
U nas tutaj wiem, że samochody Apple’a jeździły, dosłownie było ich logo na tych
samochodach, więc tam jakieś zdjęcia były robione, ale np.
aplikacja tłumacza jak najbardziej jest dostępna w Polsce, a Apple jeśli chodzi
akurat właśnie czy o OCR czy o tłumacza tworzy swoje własne modele.
Oni akurat tych usług nie wypożyczają od innych firm, więc to jest pewnie też…
Ale w ogóle nie jest też przypadkiem tak, że po prostu jest, może nie jest oddział Apple’a w Polsce?
Nie.
W sensie teraz jest autentycznie zagubiony.
Nie, były jakieś ogłoszenia o pracę, coś Apple chciało stworzyć, szukało ludzi też na stanowiska jakieś, chyba nawet takie menedżerskie, kierownicze w Polsce, natomiast no rzeczywiście Apple jako taki nie ma swojego oddziału u nas i tu jest też problem.
Ciekawości sobie wpisałem.
Pracować nad lokalizacją chociażby przecież.
Na Polski.
Ja sobie właśnie teraz ciekawości wpisałem
i tutaj Google mi wyrzuciło taką
informację.
Polski oddział Apple przeniósł się do
centrum Warszawy.
Centrala Apple w Polsce mieści się
obecnie na ulicy
Chmielnej 19.
Tylko ciekawe co tam się dzieje
tak naprawdę w tym oddziale.
Ale jakiś oddział jest.
No to jest pytanie. Zobaczymy, co będzie dalej, natomiast myślę, że to zdecydowanie nie jest kwestia tego, kto jakiej narodowości pracuje w danej firmie,
bo gdyby tak było, to myślę, że zdecydowanie więcej różnych języków byłoby bardziej dopieszczonych przez aplat. To są twarde decyzje biznesowe i się po prostu cyferki w Excelu muszą zgadzać.
czy w nabersach, przepraszam.
Tak, pewnie kwestia właśnie biznesu,
przekierowanie odpowiednich zasobów,
bo tak jak wspominaliśmy, muszą być modele odpowiednio
wytrenowane, więc pewnie jacyś eksperci
językowi muszą być do tego
zatrudnieni, zwłaszcza jeśli chodzi o Siri.
No, także
właśnie.
Dobrze, odbierzmy kolejny telefon.
Piotr jest z nami tym razem. Witaj.
Witajcie.
Piotr z tej strony, Piotr Żołądek.
Słuchajcie, ja
przychodzę z takimi dwiema sprawami.
Jedna to jest a propos Androida, bo no już jakiś czas temu nie jestem w Androidzie,
a poproszono mnie o pomoc z czytnikiem komentarzy.
Jest ostatnio taki problem, znaczy nie wiem czy z czytnikiem, czy z aplikacją Facebook,
ponieważ komentarze do jakichś postów na Facebooku są czytane jako spacja, spacja, spacja.
Czy wiecie, co mogło się wydarzyć? Czy to jakaś aktualizacja Facebooka?
No akurat trafiłeś tak, że my tu wszyscy z iPhone’ów, więc…
Ale wiem, że coś tam Paweł może kojarzy, czy już nie.
Aktualnie nie mam Facebooka na żadnym Androidzie skonfigurowanego,
ale nie zdziwiłbym się.
To ja dokładnie zostawiam pytanie, może ktoś ze słuchaczy
odpowie, ewentualnie od Ciebie przesłucham.
Natomiast druga rzecz, ewentualnie napiszę gdzieś jeszcze na jakimś forum,
Natomiast druga rzecz, a propos Gleidensa, bo ostatnio dużo było o Gleidensie w tamtej audycji,
to chciałem powiedzieć, bo dość mocno przewertowałem ich stronę,
a propos też wyglądu, no i znalazłem troszeczkę jednak wyższe ceny, nie wiem, chyba, że to się zmieniło.
Bo znalazłem cenę, oni chcą tu jakoś za półtora tysiąca, tak przynajmniej taką informację znalazłem.
To znaczy Piotrze, bo to jest tak, być może już teraz te ceny się podniosły, ja to sprawdzałem przed samą audycją w zeszłym tygodniu i tam była informacja, te ceny wziąłem stamtąd, ale dlatego być może one się różnią, bo ty być może dotarłeś do tych cen takich ostatecznych, to o czym ja mówiłem, to były ceny w tym tak zwanym preorderze.
A, że tam 100 dolarów płacasz. Tak, było coś takiego, pre-order.
I tam rzeczywiście, rzeczywiście te ceny były niższe chyba o jakieś 20-30%.
Bo oni od razu stwierdzili, że później to te ceny na pewno podskoczą.
Więc być może mówisz o tym. I tamtych cen jest ileś, tak w ogóle.
Wszystko to też jest uzależnione tak naprawdę ile wraz z tym urządzeniem
wykupujemy sobie miesięcy tej subskrypcji. Tak, tak.
Ja nawet do tego niestety nie dotarłem,
natomiast dotarłem do bardzo szczegółowego opisu urządzenia,
łącznie z wymiarami.
To według tego, co zdążyłem dowiedzieć się,
ma jakiś czerwony zderzak,
dwa koła około 7,5 cala czy 7,2 cala.
To jest jakieś kilkanaście centymetrów mniej więcej,
dwa koła takie obok siebie.
I tutaj też chyba Sławek obawiał się,
jak to będzie z widocznością.
Natomiast do tego uchwytu od tego zderzaka i całej tej konstrukcji, czerwono tam, srebrno-czarnej, idzie długi kijek, tak jakby laska, biała i dopiero jakby na szczycie tej laski mamy jakiś taki trójkątny uchwyt, który pod spodem ma kamerę, ma tam jakieś pola, nie wiem, być może dotykowe, być może przyciski, ma też mikrofon.
Chyba pola, te pola to chyba nawet będą jakieś pola wibracyjne takie, wiesz, że on z lewej i z prawej strony może Ci zasygnalizować coś wibracją.
Aha, że coś ewentualnie jest, czy coś…
Że na przykład teraz powinieneś skręcić.
No i głośnik, o, tak, i głośnik ma być w tym trójkącie. Natomiast cały rzeczywiście no biały teles… znaczy nie wiem, czy to się będzie składało, ale chyba tak.
I nie wiem, czy nie przeliczyłem sobie tego, 8 funtów chyba to ma ważyć.
Tak przynajmniej znalazłem taką informację a propos wagi funt.
Waga w funtach podana.
I jeśli chodzi o pokonywanie przeszkód typu schody,
to czytałem, że trzeba będzie go podnosić.
Natomiast z krawężników i na krawężnik powinien wjeżdżać.
Natomiast takie, jak schody są, powiedzmy długie schody, tak, w dół z peronu idziemy, to na takich schodach ponoć trzeba będzie go podność.
Czyli rozumiem pewnie też, że i do pociągu, do autobusu, no tak się domyślam.
No tak, trzeba będzie to sobie po prostu wnieść.
Okej, no to z mojej strony w sumie tyle. Jak gdzieś ktoś będzie wiedział coś o tym komentarii, co to się tam wydarzyło, to będę czekał czy słuchał też później po audycji.
Pozdrawiam Was serdecznie.
Dzięki Piotrze za telefon, pozdrawiamy Cię również.
Do usłyszenia.
No dobrze, tyle Waszych wypowiedzi przynajmniej na ten moment,
więc może przejdźmy do kolejnych tematów,
a teraz zrobimy sobie wycieczkę zagraniczną,
wycieczkę konkretnie do Indii.
Zgadza się, zgadza się.
Tutaj jakiś mój krótki problem techniczny,
mam nadzieję, że mnie słychać.
Jesteś, jesteś, tak. Wszystko w porządku.
Owszem, zrobimy taką wycieczkę i to dzięki youtuberowi tamtejszemu.
O, tenże youtuber, BlindyPhoenix.
My się już z nim spotkaliśmy.
Pranav na przykład demonstrował portfel mówiący,
do którego wkładało się banknoty indyjskich rupi
i były one jakoś tam rozpoznawane,
ze szczególnym naciskiem na jakoś tam.
No a tym razem wybrał się do Mitra Jyoti.
Mitra Jyoti jest największym centrum szkoleniowym, ośrodkiem szkoleniowym
szkolącym osoby z dysfunkcją wzroku w Indiach.
Mieści się on w mieście Bangalore i powstał on 34 lata temu w roku 1990.
I jest to takie miejsce, do którego niewidome młode osoby,
które jeżeli dobrze zrozumiałem, ukończyły konkretny etap edukacji
Gdzieś chyba odpowiednik naszego liceum, może troszeczkę wcześniej, jadą, żeby się doszkolić w różnych umiejętnościach, które mogą im potem pomóc w znalezieniu pracy, w studiowaniu, w funkcjonowaniu samodzielnym w niezależności itd.
No i są tam różne kursy. Pani, która oprowadzała pranafa po budynku, mówiła o sześciu kursach. Na pewno jest tam kurs umiejętności cyfrowych, digital literacy.
I jest to kurs, gdzie po prostu osoby niewidome uczą się jak korzystać z różnych sprzętów elektronicznych, z różnych pomocy, z różnych technologii wspomagających.
Na wyposażeniu labu tak zwanego jest dużo komputerów, oczywiście są jakieś inteligentne laski, dużo produkcji w ogóle indyjskiej.
W Indiach w ogóle dużo powstaje też takich technologii wspomagających, o których my na co dzień nie słyszymy, bo one poza Indię jakoś nie wychodzą, jakieś przetwarzacze DayZ, jakieś brailowskie zegarki, jakieś takie gry, puzzle brailowskie itd.
Więc tam osoby niewidome uczą się jak tego typu technologie wykorzystywać efektywnie.
Jest też taki program typowo skrojony pod pracę, czyli jest poradnictwo zawodowe, nawet pomoc w tym jak korzystać, jak prowadzić sieć kontaktów w serwisie LinkedIn.
Więc bardzo fajnie, że oprócz tych tradycyjnych form takich jak, jak napisać CV, jak napisać list motywacyjny, jak zaprezentować się na rozmowie o pracy.
Mega ważne rzeczy, ale też trzeba pójść troszkę z duchem czasu i troszkę zahaczyć o te nowoczesne formy poszukiwania pracy, takie właśnie jak LinkedIn, takie jak obsługa pracy zdalnej, różnego rodzaju spotkań online typu Zoom, Teams i tak dalej.
Mam nadzieję, że tego wszystkiego tam uczą.
Są też programy przygotowywawcze do różnego rodzaju studiów i tutaj pochyla się nad indywidualnymi zdolnościami konkretnych uczestników takich programów i to właśnie, jak ta osoba jest bardziej uzdolniona muzycznie, to próbuje się zintegrować do jakiejś publicznej, pobliskiej szkoły muzycznej.
Jak ktoś chce na studia, to się próbuje tą osobę przygotować, jak miałaby sobie radzić na studiach czy licencjackich, czy magisterskich, czy nawet doktoranckich.
I tutaj właśnie wymieniony był też program dedykowany specjalnie młodym kobietom z odległych wiosek w rejonie, które w swoim otoczeniu naturalnym nie mają takiej możliwości, żeby wykształcić w sobie te konieczne umiejętności, a taki ośrodek właśnie im w tym pomaga.
Są też kursy języka angielskiego. Język angielski w Indiach jest bardzo potrzebny i koniecznym środkiem komunikacji, bo obok Hindii jest praktycznie jedynym uniwersalnym językiem.
Indie mają oficjalnie 26 języków, z tego co pamiętam. W każdym rejonie mówi się czymś zupełnie innym, więc ten angielski jest takim pomostem.
No i też są zajęcia takie typowo z dobrostanu psychicznego, fizycznego, jakieś zajęcia fitness, gimnastyka i tak dalej.
Kursy trwają różnie, mogą trwać 10 tygodni, mogą trwać 24 tygodnie, no i się przyjeżdża na taki kurs i się w nim bierze udział.
Ja sobie to wyobrażam jakoś tak, że powiedzmy kończę szkołę, rozważam pójście na studia, no i zamiast pójść na te studia od razu i jakoś tam
Przykładowo nie jestem aż tak oblatany w różnych technologiach czy w jakiejś tam powiedzmy orientacji w przestrzeni,
bo tego typu zajęcia też tam są, gotowanie, no takie czynności życia codziennego.
Potrzebowałbym pomocy, żeby funkcjonować w tym środowisku akademickim, w akademiku, na studiach i tak dalej.
Więc zamiast od razu iść na studia, idę na taki kurs jaki jest mi potrzebny i dopiero po tym kursie rozważam studia.
To jest taki model troszeczkę amerykański, bo w Stanach również są takie ośrodki szkoleniowe, na przykład w stanie Louisiana jest taki jeden, one chyba też należą do którejś z tych instytucji, to jest chyba NFB czy ACB, chyba NFB ma takie właśnie ośrodki szkoleniowe, no i tam też są różne intensywne kursy, niektóre są bardziej kompleksowe, niektóre się pochylają nad jakimś konkretnym zagadnieniem i po prostu osoba niewidoma przyjeżdża tam na czas dłuższy i ma bardzo intensywne zajęcia.
Oprócz bycia instytucją szkoleniową, Mitra Jyoti jest także drukarnią brailowską i na zamówienie drukuje różne książki, podręczniki, czasopisma, które trafiają potem do szkół publicznych, gdzie uczą się osoby z dysfunkcją wzroku, również w tym rejonie Mangalore.
Nawet rzekomo drukują oni podręczniki w Brailu dla nauczycieli z dysfunkcją wzroku, którzy uczą widzących uczniów w szkołach publicznych.
Więc to też jest super, że w takich ilościach jest możliwe drukowanie tej literatury.
Drukarnie tam pracują cały czas, ponoć takie woluminy i tomiszcza się tam przewijają, że oni musieli zbudować czy zagospodarować specjalne pomieszczenie, żeby to wszystko gdzieś tam pomieścić, co oni drukują, więc są to jakieś w ogóle kosmiczne nakłady.
Nagrywają również pewne rzeczy w DAISY, mają własne studio nagrań. Większość tego wszystkiego, z tego co zrozumiałem, obsługują właśnie też osoby z dysfunkcją wzroku, więc jest to jednocześnie też zatrudnienie.
i wszystko zasilane jest przez generatory prądu. Przypuszczam, że może być tam problem z dostawami regularnie prądu przez elektrownię, więc centrum, ośrodek doładowuje się przez sześć solarów słonecznych, baterii słonecznych i są dwa generatory.
Żeby było ciekawiej, osobny generator jest dla samych drukarek brajlowskich, a osobny generator dla całej reszty budynku.
Więc widać jak to drukowanie brajla i to, żeby te drukarki działały cały czas jest gdzieś tam dla nich ważne.
Te solary są im też potrzebne po to, żeby podgrzewać sobie ciepłą wodę, żeby cały czas była ciepła woda.
z tego, co opowiadała Pani oprowadzająca
Pranafa, to tam nawet ludzie już wstają,
żeby się okąpać o 4.30 lub 5.00 rano.
Ja nie wiem, czy tak wcześnie się zaczynają tam zajęcia, czy to wynika
jakoś z tej konstrukcji systemu
podziału wody. Więc tam albo ładuje się
w dni takie bardziej letnie
baterię słoneczną przez słońce, albo
jak jest pora deszczowa, pora monsunu lub zima,
to tam jest pompa ciepła, która o godzinie 3 w nocy się włącza i podgrzewa wodę tak, żeby jak woda spadnie poniżej konkretnej temperatury była na bieżąco dogrzewana.
Nie mogę uwierzyć w rozmiar tego obiektu, bo padła wartość 20 tysięcy stóp kwadratowych.
Ja wpisałem to w Google, wyszło mi 120 kilometrów kwadratowych. To jest jakiś niebotyczny rozmiar.
No nie wydaje mi się, żeby, ale kto wie, może ja się machnąłem, może źle usłyszałem.
Muszę przyznać, że to nagranie nie było najlepszej jakości, bo tam pan sobie nie do końca poradził chyba z po pierwsze sensownym rozmieszczeniem mikrofonów,
tak żeby było słychać i jego, i panią, z którą prowadził wywiad, no i też troszkę pan jeszcze musi popracować nad zgraniem głośności rozmowy i głośności muzyki.
W jednej sypialni, to znowu mam nadzieję, że dobrze zrozumiałem, mieszka 17 osób na łóżkach piętrowych, więc naprawdę duże ilości osób zgromadzone na jakimś mniejszym obszarze.
No więc jest to specyficzne na pewno.
No i tam te osoby funkcjonują, uczą się, mają jakiś taras, gdzie się mogą bawić, gdzie mogą też pranie sobie rozwiesić.
Ponownie też tam jest problem na razie, tam jest chyba jakiś uszkodzony płot, więc się trochę boją, że ludzie mogą powypadać za balustradę.
I w ogóle są jakieś wyznaczone czasy, kiedy dziewczyny mogą iść rozwiesić pranie, kiedy chłopcy mogą iść rozwiesić pranie.
Po dziesiątej jest, zdaje się, cisza nocna, ale wiele osób, jak to bywa w ośrodkach, kto tego tematu nie zna, i tak sobie jakieś tam aktywności po cichu uskutecznia na jakichś sprzętach elektronicznych, czy tam jakiejś rozmowy i tak dalej.
i tak przynajmniej chłopcy, z którymi był prowadzony wywiad, opowiadali.
No więc taka ciekawa instytucja, no i życzymy im powodzenia,
oby się rozwijali, no i ciekawe jak taki model właśnie takiego pomostu
między nauką w szkole tradycyjnej, a dalszym stopniem tej nauki
przerwany właśnie taką przerwą na… przerwany przerwą,
są przerwane takim szkoleniem, które uzupełnia nasze gdzieś umiejętności o te konieczne z perspektywy naszej niepełnosprawności, by się przyjęło w innych krajach.
Bo Stany, jak widać, sobie z tym radzą, Indie również. Nie wiem, czy inne kraje również mają tego typu ośrodki, pewnie niektóre tak.
No i pozostaje mieć nadzieję, że do takiego ośrodka mają rzeczywiście dostęp wszyscy potrzebujący, bo w Indiach, no mimo, że ten system castowy został
oficjalnie zniesiony bodaj w 1947 roku,
no to gdzieś tam czytałem kiedyś, że nadal
to bardzo jeszcze pokutuje i różnego rodzaju są
nawet nie wprost, ale obostrzenia dla części mieszkańców.
To na pewno, a inna sprawa jest też taka, że Indie są gigantycznym krajem
i to, że to jest w jednym mieście Bangalore,
no to pytanie czy, okej, największy ośrodek w całym kraju,
czy każdego stać na to, żeby pojechać gdzieś daleko
na taki kurs.
No właśnie.
I czy to rzeczywiście jakby obsługuje
tylko te najbliższe rejony, mówili tam
o oddalonych gdzieś wioskach
jakichś odludziach,
czy to też tylko w okolicach
Bangalore, czy też
to się rozszerza, no nie wiem, na cały kraj,
a może na jakieś więcej tych tak zwanych
Stanów czy regionów Indii
i kto rzeczywiście ma do tego, tak jak mówisz,
dostęp.
Może kiedyś będzie okazja, żeby
jeszcze zgłębić temat.
Kto wie, kto wie.
A teraz będziemy zgłębiać temat nowości w monitorach brajlowskich.
Na ten temat więcej wie Piotr.
Dokładnie. No pewnie związane jest to z tym, że sezon konferencyjny mamy cały czas jak w najlepsze,
no bo było Sci-City, ale teraz oczywiście mamy konferencję w Stanach,
między innymi zarówno konferencja NFB, jak i ACB się zakończyły,
więc pewnie za jakiś czas znów będziemy mieli nowinki,
tylko tym razem nie z Tech City, a z tych konferencji.
No ale przy okazji też producenci sprzętu tyfo informatycznego zaczęli
chwalić się informacjami, co tam pododawali do swoich urządzeń,
też jeśli chodzi o aktualizację oprogramowania między innymi.
I tak zarówno firma Humorware, jak i Salvas Healthcare właściwie,
a nie Himstack, możemy być przyzwyczajeni, oni teraz ostatnio
raczej przechodzą na tą nazwę, czyli producent monitora Braille i Motion,
który dopiero co wyszedł, a już też doczekał się aktualizacji oprogramowania.
No ale właśnie oprócz niego wszystkie monitory od Humanware, czyli to jest
Mantis, to są nowe bralianty 20 i 40 oraz Camaleon, akurat Camaleona w Polsce
nie ma, ale pozostałe jak najbardziej są, więc myślę, że warto pochylić się nad
tematem, co dokładnie w tych różnych monitorach się pozmieniało.
Będą linki do obu producentów, akurat tutaj oba pliki są w formacie Worda, który ciekawe nie udało mi się na przykład utworzyć na iPhone, musimy to robić na komputerze, może to być Mac albo PC, ale najlepiej to robić w pakiecie takim komputerowym.
No to co, zaczniemy od Humanware’a może i co tutaj się nam pozmieniało.
Największe zmiany jeśli chodzi o oprogramowanie Humanware’a dotyczą edytora plików brailowskich.
Mianowicie możemy sobie formatować pliki BRF, żeby je sobie przygotować na przykład później do wydrukowania.
Chodzi o to, że będziemy mogli zobaczyć przed wydrukiem, jeśli wystawimy odpowiednią liczbę znaków na wiersz i wiersze na stronę, to będziemy w stanie na monitorze nawet podczas edycji tego pliku zobaczyć jak to będzie wyglądało gdybyśmy później ten plik sobie wydrukowali na stronie.
kartce brailowskiej. Mamy, co za tym idzie,
no możemy sobie zastosować właśnie długość wiersza.
Możemy sobie zmienić
układ strony.
I mamy tryb podglądu, który
po prostu powoduje, że monitor będzie nam wyświetlał
w miarę tak, jak to będzie wyglądało na
kartce papieru. Ponadto została dodana
nowy skrót.
polecenie GDZIE JESTEM, które po prostu poda nam pozycję naszego kursora w danym dokumencie właśnie względem tej wydrukowanej blajolowskiej strony.
Więc możemy sobie w ten sposób to dostosować.
Na monitorze Brilliant BI40X klawisze poleceń są teraz personalizowane.
Robimy to z menu. W ustawie użytkownika została dodana nowa sekcja
konfiguracja klawiszy polecenia.
Kiedy wejdziemy sobie do tego menu, wybieramy z listy klawisz polecenia,
które chcemy zmienić.
Naciskamy Enter i potem naciskamy polecenie, które chcemy do tego
klawisza przepisać.
I też na tym braniancie BX, inna kamerownia akurat na Forze nie ma, więc po prostu tutaj na tym braniancie BX, biblioteki Daisy mają teraz wsparcie dla dynamicznych menu, czyli biblioteki mogą sobie dostosować jak mają być dostępne w danej bibliotece książki prezentowane, no to menu po prostu może być dostosowane właśnie przez bibliotekę.
I teraz to będzie po prostu, takie menu będą też wyświetlane właśnie w dynamiczny sposób na tych monitorach.
I mamy jeszcze dodane wsparcie dla dokumentów ODT i myślę, że to jest bardzo fajna sprawa.
Pliki ODT to są dokumenty otwarto-źródłowych pakietów biurowych,
Na przykład LibreOffice takie pliki generuje, właśnie LibreOffice i Apache OpenOffice, te pliki mogą też na przykład być otwarte w Microsoft Office, on też jest w stanie pliki odt. otwierać.
No i teraz też właśnie monitory od HumanWare, możemy je otworzyć zarówno w edytorze tekstu, jak i w aplikacji VictorReader, żeby je po prostu przeczytać.
Cały czas niestety nie ma plików EPUB, a to moim zdaniem by się przydało, no ale przynajmniej jeśli ktoś nie chce z Worda korzystać, a chciałby jakieś skomentowane dokumenty tworzyć, no to można w ten sposób.
I inne poprawki.
Automatyczne wyłączanie urządzenia powinno już działać, jeśli mieliśmy włączone automatyczne przewijanie i ono dotarło do końca książki.
I została dodana globalna lista wszystkich skrótów klawiszowych, do której możemy dotrzeć naciskając spację z literką H lub na mantisie Alt Shift I H lub po prostu F1 na mantisie, bo mantis ma pełną klawiaturę.
To jest Humanware, ale mamy też aktualizacje dla monitora Braille i Motion.
Tutaj mam wrażenie, że my w Polsce po części już tą aktualizację dostaliśmy, ale chyba nie wszystkie funkcje z tej aktualizacji gdzieś wsłuchając podcastu, który Robert Hedzek niedawno zrobił w teflopodcastie.
Natomiast wydaje mi się, że kilka nowości mimo to się tutaj z tym monitorem też zostały dodane.
Między innymi, jeśli chodzi o opcję, klawisz środkowy, to jest ten przycisk, który jest między punktem pierwszym i czwartym,
naciśnięty po prostu tak o, powoduje, że zmieniamy język wejścia, a właściwie stopień wejścia,
czyli czy piszemy brajlem komputerowym, czy skrótami możemy sobie jednym przyciskiem to w każdej chwili zmienić.
Zostały dodane ustawienia klawisze kursora, klawisze kursora to są te duże klawisze na przodzie urządzenia, które dziś są porównywane do tych klawiszy takich kciukowych na monitorach Hue and Wear,
takie duże klawisze, którymi możemy przewijać tekst na Braille Motion, takie dwa klawisze też zostały dodane, to jest też ciekawe, więc mamy tutaj zarówno takie te dwa standardowe,
HIMS-owe takie przyciski przewijania z każdej strony po dwa, no i plus właśnie te dwa przyciski kursora,
które na początku działały bardziej tak jak chyba Tab i Shift Tab, natomiast oczywiście w przednikach
ekranu możemy je sobie dostosować, ale teraz też na urządzeniu możemy w ustawieniach Brailla
zdecydować, żeby te przyciski kursora po prostu też działały do przewijania monitora.
Jeśli sobie to włączymy, no to one mogą wykonywać wszystkie te same funkcje, co takie mniejsze przyciski przewijania na końcach monitora.
Więc możemy sobie na przykład ustawić, żeby przewijały po linii, po linijce braillowskiej, po akapitach i tak dalej, i tak dalej.
Dla brajla UEB, czyli takiego standardowego brajla angielskiego, zostały dodane tablice nauczania.
Te tablice są utworzone na podstawie poziomów uczenia tego brajla angielskiego, dokładnie nie wiem jak ten system wygląda.
Natomiast jeśli ktoś właśnie uczył się w taki sposób, to można sobie też takie tablice teraz ustawić.
Został też dodany brail w języku tajskim, w opcjach głosu skrót do pola wyboru głosu został zmieniony na literkę N, oraz skrót klawiszowy też w opcjach głosów do opcji użyć drugiego głosu został zmieniony na literkę U.
I w opcjach ogólnych, lista języków, bo można do zmiany interfejsu, języka interfejsu całego urządzenia, wyświetla nam teraz tylko języki, do których zostało zlokalizowane oprogramowanie Braille i Motion, a nie wszystkich języków, które obsługuje Android, jak było do tej pory, więc wcześniej dało się gdzieś ustawić język, który przez oprogramowanie wspierane nie był i pewnie wtedy się po angielsku różne rzeczy wyświetlały, tak przypuszczam.
A teraz po prostu będziemy widzieli tylko te języki, na które urządzenie faktycznie zostało przetłumaczone.
Ogólne zmiany. Mamy zmianę jak blokujemy klawiaturę na urządzeniu.
Kiedy trzymamy kombinację blokadę klawiatury przez 3 sekundy, słyszymy dźwięk.
Jeśli trzymamy zamiast komunikatu po prostu słyszymy dźwięk.
Gdybyśmy przetrzymali tą kombinację przez dłużej niż 5 sekund,
no to urządzenie uznaje wtedy, że ta kombinacja została nacisnięta przez przypadek i po prostu nic się nie dzieje.
W sekcji My Emotion został dodany katalog Bookshare,
bo teraz urządzenie właśnie też wspiera pobieranie z Bookshare’a.
W menadżerze plików została dodana opcja Otwórz za pomocą,
która pozwala nam otwierać pliki tekstowe z niestandardowymi rozszerzeniami
w aplikacji notatnika.
A propos notatnika,
no to mamy tutaj też zmianę
w notatniku.
Maksymalna wartość, którą możemy sobie ustawić,
liczba
w linii, liczba
wierszy na PRL-owskiej stronie teraz maksymalnie
może być ustawiona na 50.
Czytnik
dokumentów ma
nowy skrót klawiszowy, teraz jest to F1
Włączność, skrót klawiszowy do ustawień bluetootha został zmieniony na naciśnięcie klawisza środkowego, klawisza Enter, czyli punktu 8 oraz literki B, skrót do włączania lub wyłączania przesyłania dźwięku, no bo przypominam Braille Motion też może nam działać jako karta dźwiękowa, na przykład z telefonem, no i wtedy słyszymy dźwięk z naszego iPhone’a.
z głośników czy ze słuchawek, które mamy do linijki podłączone.
Skrót do tego to jest teraz też przycisk środkowy, punkt ósmy i literka A.
Schowek terminala, czyli takie pole edycji, które możemy wywołać, żeby sobie
w jakiejś większą porcję tekstu napisać, która później zostanie przez
bluetooth wysłana do urządzenia.
No teraz to pole edycji jest polem wielowierszowym, więc możemy sobie
nowe linie do niego wstawić i klawisze kursora, czyli te dwa duże przyciski, o których wspominałem,
też właśnie w trybie terminala emulują przyciski przebijania, więc po prostu czytniki ekranu
powinny nam tekst przebijać.
Odtwarzacz Daisy dostał nowy skrót do nawigacji po zakładkach.
jest to klawisz Enter oraz punkty 3-6.
Otwarzasz multimediów, wyświetla nam teraz artystę albumu
w okienku wyświetlenia tagów.
Została też dodana sekcja online DAISY.
Skrót do tego to jest F1 i Z, więc tutaj pewnie za jakiś czas
polski DZDN się pojawi i będziemy mogli sobie
audiobooki na to urządzenie ściągać.
Został dodany, tu bardziej pewnie w Stanach, Bookshare i tutaj skrót tego to jest F.I.R.L.I.K.A.
I zostało dodane menu do pobierania dodatkowych usług regionalnych i innych usług bibliotekowych.
Na razie tam w tym miejscu jest tylko dodana Biblia, Sense Bible, ale producent obiecuje, że co jakiś czas tam będą się po prostu też inne jakieś usługi pojawiać.
Następnie Bluetooth. Zostało usunięte okienko dialogowe opcji Bluetooth, bo po prostu wszystkie opcje w nim były na tym urządzeniu niewykorzystywane.
I tak samo w kopii zapasowej, którą możemy utworzyć nie będzie zapisywany w menadżer Bluetooth, bo po prostu tam teraz nie ma opcji, które mogłyby być odzyskane.
odzyskane. I w konfiguracji internetu została dodana opcja do ręcznego
wprowadzenia adresu IP, kiedy dodajemy nową sieć Wi-Fi.
No także jak widać producenci nie śpią.
Zarówno tutaj Humanware, jak i Selvas cały czas pracują nad swoimi
urządzeniami. Miejmy nadzieję, że to będzie trwało nadal.
No i zobaczymy za jakiś czas, jakie jeszcze funkcje pojawią się w tych
monitorach, które no trzeba przyznać zaczynają potrafić coraz więcej, a nie tylko no właśnie być monitorami prędlowskimi.
Miejmy nadzieję, że słucha nas teraz cały czas Piotr, który do nas dzwonił jakiś czas temu, bo w sprawie Facebooka na Androidzie mam komentarz od naszego słuchacza Grzegorza.
Cześć wam. Jeśli chodzi o Facebooka na Androidzie to jest problem aplikacji, gdyż na TokBeku jest podobny problem z komentarzami.
Wygląda tak jakby komentarze były jakąś grafiką, wtedy Talkback automatycznie OCR rozpoznaje, oczywiście z błędami.
Dzięki Grzegorzu za te informacje, miejmy nadzieję, że dla Piotra okażą się pomocne.
A teraz przechodzimy do tematu aplikacji Koleo, wakacje w pełni, więc być może będziecie potrzebowali gdzieś pojechać pociągiem,
A akurat aplikacja Coleo jest o tyle fajna, że nawet możecie zlecić im nadanie bagażu, nie będziecie musieli go dźwigać, a na wakacje to czasem z niejedną walizką może być potrzeba, żeby wyruszyć.
No i oprócz tego, co zostało już jakiś czas temu dodane, no to użytkownicy niewidomi też mają powody do radości, bo nowa funkcja właśnie specjalnie dla nich dostosowana pojawiła się w Coleo.
Zgadza się i to jest coś na co długo czekaliśmy, żeby w ogóle gdziekolwiek się pojawiło, bo PKP Intercity wybieranie miejsc ze schematu graficznego miało już dawno, czy to na stronie internetowej, czy też w aplikacji.
Koleo też niedawno się tego doczekało, ale teraz po raz pierwszy to my możemy za pomocą voice-overa również wybrać sobie miejsce z takiego pewnie uproszczonego w jakiś sposób zrobionego pod nas tekstowego, ale również schematu, więc nie jest to już wpisywanie konkretnego numeru miejsca lub wybranie jakiegokolwiek miejsca np. przy oknie, wybranie miejsca obok konkretnego miejsca.
Teraz my możemy się rozejrzeć po wagonach konkretnych, jakie to miejsca jeszcze są wolne i które z tych miejsc możemy sobie wziąć.
I może, żeby nie być głosłownym, ja zademonstruję jak to działa, bo przynajmniej się postaram, bo testy na żywo różnie nam już w tym podcaście wychodziły.
21.45.
3 minuty temu.
Mam iPhone’a
i wyszukałem właśnie
połączenia w koleo z Krakowa do
Wrocławia na jutro od godziny 15.30.
No więc mamy tu pociąg
16, 17,
bezpośrednio i C, 19,
21, 3 godziny i 4 minuty.
No i mamy taki intercity.
Przycisk wróć, przycisk wróć.
Kraków udostępnij. Kraków główny.
Naciśnij. Pasażerowie zaznaczone. Dodaj pasażera.
Tu się wybiera pasażerów, więc jestem tu wpisany ja, i wybieramy sobie dalej.
No i właśnie, możemy tu wejść.
Pobieram dostępne miejsca, wielopropek.
Ten komunikat się nam pojawia. Miejmy nadzieję, że Koleo tym razem dopisze i je pobierze jak należy, bo już dziś miałem z tym problem.
Pobieram dostępne miejsca, wielopropek.
No więc czasami trzeba niestety chwilkę poczekać, a niestety jak to się nie powiedzie to i wybrać nawet inny pociąg.
Możliwe, że tu jest jakieś niespięcie danych.
Pobieram dostępne miejsca, wielopropek.
Niespięcie danych lub po prostu na ten pociąg już nie ma.
Całkiem możliwe, bo jak ja to dziś testowałem, to naprawdę dopiero za którymś razem mi się w ogóle to udało.
Jakoś bardzo wolno działa ten system rezerwacji.
43 środek.
O, o, jest.
Mamy jednak, mamy.
Miej wskazane miejsce. Miejsce sąsiadujące. Wagon 11, na kołówek.
I mamy wybraną opcję, żeby był schemat. Wybrana ona jest konkretnie tutaj.
Miej wskazane, zaznaczone. Schemat, przycisk, 1 z 4.
Mamy tutaj te opcje, które były też wcześniej, czyli…
Możemy wybrać sobie, czy chcemy właśnie przy oknie, czy przez korytarzu, czy jakieś jeszcze inne, to możemy wpisać konkretny numer, albo miejsce sąsiadujące z innym o konkretnym numerze, to było zawsze.
Nowością jest to, co teraz usłyszymy, czyli każdy wagon jest nagłówkiem i co my pod tym miejscem, pod tym nagłówkiem danego wagonu znajdziemy?
Ano miejsca.
33 środek.
43 środek.
84 środek.
Kierunek jazdy.
Wyszukaj połączenie. Przycisk.
Pasek kart.
No i właśnie. I to jest to, co tutaj nam zostało pokazane.
Ten kierunek jazdy niestety nie wiadomo do czego się odwołuje.
I tylko te trzy miejsca wolne znalazł nam w tym konkretnym pociągu.
Natomiast na ogół on pokazuje nam jeszcze dodatkowe informacje,
na przykład oczywiście oprócz tego, że środek to może być jeszcze korytarz albo okno.
Oraz czy to miejsce na przykład jest dla podróżnych z rowerem, czy jest dla podróżnych na wózku, czy jest dla opiekuna osoby z niepełnosprawnością.
I różne takie dodatkowe informacje o charakterystyce tego miejsca.
No więc można i oczywiście tych wagonów jest wtedy tutaj odpowiednio więcej.
Może mi się to uda jeszcze zasymulować na innym pociągu, żeby za dużo waszego czasu nie zajmować.
Kraków, Główny, Wrocław, Główny, dalej, dodaj pasażera, przycisk, dodaj pasażera, przycisk, pociąg, siedemnaście, szesnaście, bezpośrednie, C, przycisk, dobra, przycisk, Kraków, Kraków, dalej, przycisk, Kraków, Główny, pusta lista, brak, brak miejsc siedzących w jeden klasie, brak, wyszukaj połączenia.
O, wakacje w pełni.
Chyba trzeba było szukać na za tydzień tych, tych miejsc.
No mi się w końcu tak, mi się w końcu tak właśnie udało to zrobić, bo…
W innym przypadku to absolutnie.
To trzech razy sztuka.
Tak, on pobiera.
Czasem pojawia się komunikat o przekroczeniu limitu czasu oczekiwania.
To jest, mam wrażenie, ogólny problem.
O, jest. PKP.
A, bo on jeszcze raz będzie pobierał, ale pobrał.
I mamy.
O, jakaś odmiana.
Siedemdziesiąt cztery środek, osiemdziesiąt jeden korytarz, osiemdziesiąt dziewięć, dziewięć, kierunek, kierunek jazdy, wyszukaj połączenie.
No i to jest chyba wszystko, co znajdziemy, czyli tak by były miejsca tylko w jednym wagonie, no ale przynajmniej dowiedzieliśmy się o jakimś środku, jakimś korytarzu.
Także tak to wygląda. No ty, Michale, miałeś do tej funkcji pewne zastrzeżenia, prawda?
Tak, przede wszystkim ta funkcja działa bardzo wybiórczo, bo wyobraź sobie, że teoretycznie jest napisane w informacjach przy aktualizacji, że ona będzie działała od razu, kiedy wykryje voice-overa.
Okazuje się, że przynajmniej u mnie ona tak nie zadziałała.
Ja, kiedy nie miałem włączonej jej na sztywno w ustawieniach dostępności w aplikacji Coleo,
to w ogóle nie byłem w stanie wybrać miejsca ze schematu.
Nawet w jakikolwiek sposób. Miałem dostępne tylko te pozostałe opcje.
Być może coś jeszcze tam po prostu musi zostać dopięte
i być może jeszcze coś trzeba zrobić, żeby to u wszystkich działało zawsze,
ale jeżeli nie macie tej opcji wyboru ze schematu, jeżeli coś wam nie chce działać,
to przejdźcie się do ustawień i tam są ustawienia dostępności i ta opcja dotycząca schematu
to jest de facto jedyna opcja, którą można sobie tam przestawiać
i warto sobie to po prostu zaznaczyć, żeby na sztywno było, żeby zawsze z tego dostępnego schematu pozwalał na wybór.
I to jest rzecz jedna, natomiast rzecz druga, moim zdaniem, nieco bardziej problematyczna w momencie, kiedy wybieramy miejsca dla kilku osób.
Ja nadal na tym schemacie nie czuję się na tyle pewnie, żeby wiedzieć, zawsze z pewnością stwierdzić, czy ja wybieram, aby rzeczywiście miejsca usytuowane obok siebie.
Bo niestety ta numeracja wagonów, a właściwie miejsc w wagonach, w pociągach, no to też rządzi się jakimiś pewnymi swoimi prawami.
Ja kiedyś nawet o tym czytałem jakiś artykuł. Niewiele z niego już pamiętam.
Pamiętam jedynie, że to była dla mnie naprawdę jakaś taka zagadka, jak w ogóle te miejsca się numeruje, bo nie było to wcale, a wcale tak bardzo oczywiste.
Natomiast patrząc na ten schemat trzeba też zdawać sobie sprawę z tego, że pojawiają się tu tylko miejsca, które są dostępne.
Ja na przykład z miłą chęcią przywitałbym może nie włączony domyślnie taki tryb, no bo też bez przesady, to trochę by nam zaburzało nawigację po tym schemacie,
ale fajnie byłoby mieć taki schemat, który możemy sobie przeglądać na przykład eksploracją
i on nam się po prostu wtedy na telefonie rzeczywiście wyświetla tak, jak te miejsca są ułożone
i możemy sobie sprawdzać, które miejsca są zajęte, które miejsca są wolne,
na zasadzie nie przemieszczając się palcem, tym flikiem w lewo, w prawo,
tylko po prostu czyniąc to eksploracją.
Tak jak mówię, miło by było, żeby jeszcze taki tryb się pojawił.
Ale i tak, no już fajnie, że w ogóle możemy coś zrobić, że możemy tu coś wybrać, bo no wcześniej działało to zdecydowanie gorzej.
Ten schemat dla nas praktycznie był niedostępny, więc jakby jeszcze się coś tu dało poprawić, no Coleo akurat przejmuje się kwestiami dostępności
i faktycznie jak im się zgłasza różnego rodzaju propozycje, to oni prędzej czy później je realizują i to jest naprawdę wygodna aplikacja.
wygodna w użyciu i bardzo, bardzo się cieszę, że jest i dobrze, że twórcy o to dbają.
Natomiast skoro już mowa o biletach, to taka ciekawostka, zwłaszcza teraz, to może być dosyć istotne dla nas,
jeżeli gdzieś tam wybieramy się w podróż, no i tak, warto myślę, że jeżeli planujecie podróż, to warto sobie znacznie wcześniej te bilety kupić,
o ile tylko oczywiście macie taką możliwość, ale czasem bywa tak, że pociąg ma powiedzmy w aplikacji danej do rezerwacji biletów już zajęte miejsca,
na przykład wszystkie, jeżeli chodzi o miejscówki, ale na dworcu może się okazać, że jeszcze jakieś miejsca będą wolne.
Nie wiem na jakiej zasadzie to działa, ale miałem do czynienia z takim przypadkiem niedawno, że okazało się, że na dworcu po prostu w kasie biletowej można było jeszcze sobie wykupić bilety z miejscówką, gdy tymczasem aplikacja Koleo pokazywała, że już nie ma takiej opcji.
Nie sprawdzałem winnych wtedy, szczerze mówiąc.
Właśnie ja słyszałem, że gdzieś są takie sytuacje, że Koleo nie ma miejsca, a PKP tradycyjne właśnie nie ma, ale też nie wiem od czego to zależy.
Być może to chodzi też o to, że te systemy nie rozmawiają ze sobą w czasie rzeczywistym, być może to się aktualizują te informacje w jakichś wiązkach i gdzieś tam zawsze PKP czy Intercity na przykład rezerwuje sobie jakiś zapas tych miejscówek dla siebie,
Żeby za pomocą ich systemów dało się zawsze, albo prawie zawsze, coś tam jednak kupić, a Coleo jako ich de facto klient,
który ma pewnie jakieś preferencyjne warunki dotyczące zakupu tych biletów, no to rządzi się trochę innymi prawami.
No ale taka ciekawostka, więc może też dla kogoś będzie ona przydatna.
W każdym razie rzeczywiście jest, jest Coleo z tym schematem.
Ciekawe czy na androidzie już się pojawił, możecie dać znać.
Trzeba by zobaczyć ostatni changelog w sklepie play, co jest napisane.
Mogę się tym za chwilkę zająć, ale jeżeli macie jakieś obserwacje to się podzielcie z nami.
Może już praktyczne doświadczenia też, to też koniecznie dajcie znać.
A tymczasem przechodzimy do kolejnych informacji będzie o Apple, konkretnie o pierwszych publicznych betach nowych systemów tejże firmy.
Tak jest, bo w zeszłym tygodniu pojawiła się w ogóle trzecia beta developerska, o czym no akurat nie wspominaliśmy, ale przy okazji też nadrobimy zaległości, natomiast przy okazji tego, tak jak firma sama zapowiadała, że w lipcu miały się pojawić też bety publiczne, no i co, mamy lipiec i bety publiczne faktycznie się pojawiły, co dla wszystkich systemów nowych, czyli to jest iOS 18, Mac OS 15, Sequoia, WatchOS 11,
tvOS, chyba też osiemnaście, bo mają chyba taką samą wersję jak iOS.
I jeśli ktoś jest zainteresowany, to można się na te testy zapisać.
Czym różni się publiczna beta od beta deweloperskiej?
No generalnie te różnice się teraz tak naprawdę zaczynają ścierać, bo
kiedy ten program startował na początku, no to jeszcze było tak, że
deweloperzy, bety deweloperskie, mieli dostęp tylko
deweloperzy, którzy mieli wykupione członkostwo
w programie deweloperskim Apple,
a te bety publiczne też pojawiały się z dosyć dużym opóźnieniem,
to chyba nawet było opóźnienie na początku jednej wersji
do tyłu, później to było opóźnienie chyba tygodnia,
a teraz generalnie gdzieś jest to opóźnienie dwóch dni, tak
średnio, czasami to opóźnienie się wydłuża.
Bo generalnie to wygląda tak, że najpierw jakaś nowa wersja pojawia się w becie
deweloperskiej, czyli powiedzmy następna to będzie beta czwarta.
I jeśli nie pojawią się jakieś krytyczne błędy, że np.
coś się komuś, że jakieś urządzenia się nie włączają po aktualizacji, no jakieś bardzo
poważne błędy, no to za te dwa dni ta sama wersja identyczna ląduje też w kanale
bety publicznej.
Cały czas, myślę, warto przypomnieć mimo wszystko, to są bety, rzeczy mogą się nam zepsuć, warto je instalować na drugim urządzeniu, bo gdyby coś faktycznie się nam stało, gdybyśmy nie wiem, stracili mowę albo jakaś aplikacja, na której polegamy się nie otworzy, coś stanie się niedostępne, no to faktycznie możemy jakieś problemy mieć, ale jeśli chcecie sobie tego iOSa potestować, bo was ciekawią nowości, które mają się w nim pojawić,
A no na przykład zmiany w prowadzeniu Briana, to chyba jest taka największa nowość dla nas.
No, ale też nie chcecie mieć tych wersji najbardziej developerskich, chcecie mieć te kilka dni, żeby w razie czego ktoś Was ostrzegł, że tam coś się popsuło?
No to można się tym programem publicznej bety zainteresować.
Rejestrujemy się dosyć łatwo na urządzeniu, które chcemy zapisać, czy to jest iPhone czy Mac.
Wchodzimy sobie na stronę beta.apple.com.
Tam zapisujemy najpierw nasze konto Apple ID do programu publicznego beta, a następnie możemy też zapisać nasze urządzenie z tej samej strony.
Kiedy to zrobimy, przechodzimy sobie do ustawień, później do sekcji ogólne, później do uaktualnień i tam pojawi nam się nowy przycisk uaktualnienia beta.
Kiedy sobie w niego wciśniemy, wyświetli nam się lista wszystkich dostępnych kanałów aktualizacji, czyli domyślnie tam po prostu będziemy mieli zaznaczoną opcję wyłączone, że nasze urządzenie nie jest na aktualizacji jak beta, a pod spodem pewnie zobaczymy na przykład iOS 18 public beta.
Wystarczy na to nacisnąć, wycofać się z tego i wtedy nam system tą aktualizację pobierze.
Jeszcze raz postrzegam, warto to zrobić na jakimś innym urządzeniu, warto, a właściwie nawet wydaje mi się, że należy przed tą aktualizacją zrobić kopię zapasową, najlepiej do komputera przez kabel, bo wtedy nam się wszystkie dane skopiują, jeśli to nie jest możliwe, no to zawsze jest opcja chmury, zrobić sobie kopię zapasową do iCloud, natomiast najbezpieczniej zawsze właśnie sobie zrobić taką pełną kopię zapasową do komputera, czy to jest Mac czy PC.
tą aplikacją iTunes, czy właściwie urządzenia. Teraz nam idą się dziesięć i wtedy ta, w razie czego gdyby coś się stało, to możemy sobie nasze urządzenie z tej kopii zapasowej odtworzyć.
A jeśli chodzi o tą betę, no generalnie jeśli chodzi o zmiany, to ich zmiany jest coraz mniej, dlatego że ten system po mału dziś zaczyna się stabilizować, krysztalizują się kwestie jakie funkcje się zaczną pojawiać.
Jeśli chodzi o nazwę Osoby Niewidome, to co mogę powiedzieć, no błędy cały czas, które ludzie wynajdują są poprawiane, tak na przykład personalizacja ekranu blokadę, tam wiem, że z Maćkiem chyba tutaj podczas audycji rozmawialiśmy, że tam coś nie działało, to już zostało naprawione, na Macu na przykład czytanie powiadomień nie działało, to też zostało naprawione, jakieś błędy jeszcze się znajdują.
Jeśli chodzi o nowości, które zostały dodane, no to w końcu możemy sobie wejść do ekranu korektora, bo teraz w iOSie 18 i niestety na Macu cały czas tego nie ma.
Każdy głos ma swój własny korektor i to naprawdę taki dosyć zaawansowany, bo mamy chyba, to jest chyba pięciopasmowy korektor z tego co pamiętam.
No i domyślnie po prostu możemy sobie te pasma regulować, ale na dodatek mamy też przecisk zaawansowany, gdzie możemy sobie te pasma dostosować, więc jeśli ktoś ma jakąś wadę słuchu na przykład, która powoduje, że nie słyszy bardzo konkretnych, wysokich częstotliwości, to można sobie to pasmo wysokie na przykład dostosować tą środkową częstotliwość, na której to pasmo ma się skupiać, no i nawet jego szerokość, więc jak Krzyś wie…
to nam się tak naprawdę parametryczny zaczyna robić.
W sumie tak.
Tak, no mamy te pięć pasem, ale każde z nich możemy sobie dostosować.
Tak naprawdę właśnie jak ktoś widział korektor w jakimkolwiek edytorze audio,
czy w Reaperze, czy w jakiejś innej aplikacji, no to tutaj mamy naprawdę dosyć szeroki zakres.
Błyszka dziegciu w tym wszystkim jest taka, że niestety ten korektor cały czas nie działa tak jak powinien.
No on działać działa, ale jeśli jest włączony, to nam mowa się przycina za każdym razem.
Więc tak naprawdę urządzenia się nieraz tym korektorem włączonym korzystać, więc miejmy nadzieję, że z betą czwartą to już zostanie naprawione.
Cały czas nie mamy jeszcze innych nowości, które Apple zapowiadało.
Mówię tutaj o rzeczach takich jak na przykład nawet nagrywanie połączeń.
To cały czas po prostu dotąd ma się pojawić, ale jeszcze się nie pojawiło.
Wiadomo cały czas nie mamy funkcji związanych z AI.
One też, tak jak wspominaliśmy, w Europie się mogą jeszcze na początku nie pojawić, ale nawet w Stanach ich cały czas po prostu nie ma, więc zobaczymy, czy może w wejściu czwartej te nowości też dojdą, no ale pomału gdzieś te systemy się stabilizują.
Jeszcze jedna taka ciekawa nowość się pojawiła, którą myślę, że mogę szybko pokazać, bo to nam nie powinno zająć dużo czasu.
I to jest coś, co myślę może właśnie ucieszyć wiele osób, które właśnie lubi korzystać z prowadzenia Brailla i na przykład pisać do Siri zamiast rozmawiać.
No bo Apple wspominało, i to jeszcze w czasie konferencji WWD też, że osoby widzące też będą miały możliwość sobie to dostosować,
bo wcześniej to było tak, że mieliśmy tą opcję Pisz do Siri, którą mogliśmy włączyć w ustawieniach dostępności i problem polega na tym, że jeśli sobie tą opcję włączyliśmy, no to nie możemy sobie już Siri wywoływać na głos przyciskiem, bo jeśli ta opcja jest włączona i trzymamy ten przycisk boczny, no to nam po prostu Siri od razu wyświetlało się pole tekstowe, żeby do Siri pisać.
Teraz ta opcja cały czas tam jest, natomiast nie musi być włączona, ale też osoby widzące okazuje się chcą czasami do Siri napisać zamiast z nią porozmawiać, więc Apple wyszło nam naprzeciw i ja mam teraz to wyłączone, cały czas mogę ze Siri rozmawiać.
Hello.
Hi Piotr, how can I help?
No właśnie, czyli cały czas Siri mi odpowiada na polecenia głosowe, ale poza tym, jeśli ja położę palec na dole ekranu i zacznę wykonywać ten gest, jakbym chciał przejść, nie wiem, do ekranu przełączenia programów, czy na ekran początkowy, wiecie o co chodzi, to jest ten gest, który kładę palec na dole i przesuwam się do góry, no to słyszymy pierwszy dźwięk na ekran główny, idę jeszcze raz do góry.
Mamy ekran przełączenia programów, ale mogę pójść jeszcze wyżej i tutaj mówi pójść palec, żeby wejść do wpisywania Siri i wyświetliła mi się klawiatura i mógłbym teraz sobie do Siri coś napisać, może znów napisze cześć.
i jeśli z tego korzystamy, to też Siri nam się nie odezwie.
Właśnie tutaj nam się na dole ekranu takie pływające okienko wyświetla, gdzie te
odpowiedzi mają, gdzie nam te odpowiedzi się będą wyświetlały.
Więc to można wywołać bardzo szybko, tak naprawdę.
I w ten sposób możemy jednym gestem z dowolnego miejsca na urzędzeniu sobie wejść
do wpisywania do Siri i na przykład wtedy włączyć sobie wprowadzenie prajla i
jakieś pytanie zadać i to będzie dla nas po prostu wykonane.
No zobaczymy co jeszcze będzie, no gdzieś te systemy zbliżają się pomału do wersji finalnych.
Natomiast jak nigdy, zwłaszcza mam wrażenie w tym roku, dużo funkcji, które zostały obiecane
i tutaj nawet nie mówię o tych szandardowych właśnie AI, jeszcze do końca do systemu się nie pojawiło.
Więc to zobaczymy co przyniosą nam czwarte bety.
A jeszcze raz, dla zainteresowanych, można teraz je też sobie pobrać w betach publicznych.
beta.apple.com, jakby ktoś chciał się zapisać.
Tylko pojawiła się taka informacja o tym, że jeden z użytkowników niewidomych Apple,
a niejaki Matthew Whitaker, nawiązał z nimi kontakt i planuje się zawiązać jakaś
nieformalna grupa testerów, która będzie w stałym kontakcie z zespołem od dostępności
Można do tej grupy dołączyć, jest na AppleVisie wątek na forum i tam jest też link do ankiety, którą należy wypełnić.
Ja już różne opinie słyszałem o tym działaniu. Z jednej strony, że Apple znowu zrzuca na wolontariuszy, którzy będą za darmo zasuwać robotę, którą powinni wykonać ich inżynierowie od kontroli jakości.
Moja opinia jest bardziej taka, że nie wiem czy to wiele zmieni i w co Apple zasadniczo gra, bo pewne błędy były już zgłaszane tradycyjnymi drogami feedbacku przez wiele lat, przez tradycyjne kanały, przez infolinie dostępności, przez maila dostępnościowego, przez aplikacje opinia.
Mają w swoim zespole dostępności panią Sarę Hellinger, która chyba wywodzi się gdzieś tam z ACB, więc jakiś kontakt z osobami niewidomymi na pewno ma.
Z tego co wiem nawet pracują niewidomi programiści przy voiceoverze i różnych innych rozwiązaniach.
Więc kurcze, co oni teraz kombinują, że chcą teraz nagle powoływać jeszcze jakąś dodatkową grupę z jakimiś ludźmi wziętymi skądkolwiek i co to tak naprawdę zmieni?
Myślę, że czas pokaże, ale pomyślałem, że właśnie tym z wami podzielę.
Taka moja też refleksja z obserwacji różnych rzeczy, nie tylko dotyczących Apple, ale tak ogólnie kwestii dostępności,
to niestety w poprawieniu jakiegoś błędu dostępnościowego, jeżeli wchodzimy gdzieś tam w szczegóły,
To się potem często okazuje, że ten błąd powoduje jakieś konkretne funkcje albo rozwiązania, które zostały wdrożone kiedyś tam i dotyczą jakiejś innej funkcji,
na której podmianę nie zgadza się np. jakiś inny zespół, który niestety ma więcej do powiedzenia w danej korporacji.
I to też czasem niestety takie jakieś sytuacje zakulisowe i wewnętrzne, a nie zawsze po prostu jakaś chęć dostępnościowców może mieć przełożenie na to, że coś jest bądź też nie jest naprawiane.
To taka moja jeszcze refleksja. A tymczasem odbieramy telefon, jest z nami Maciek.
Cześć, witajcie, dobry wieczór. Tak się odniosę na początku może do tej kwestii ostatniej właśnie, aktualnej, czyli jakoby zrzeszania grupy testerskiej stricte odnośnie dostępności.
No właśnie, dobre pytanie, na ile oni zaczynają dopiero albo będą zaczynać dopiero zrzeszać,
a na ile oni już to w sumie gdzieś tam robią, no bo właśnie swego czasu też jakby mi maila wysłali zaproszenie
generalnie na Groups.io do jakby tam swojego, znaczy niby osobny, dedykowany program a-la
deweloperski, niby w teorii z naciskiem na dostępność, niby coś tam jest i niby, że ja mam do tego dostęp,
natomiast na właśnie Groups.io jest też ten jakby ten program, taki jakby swego rodzaju forum w sumie,
gdzie tam, gdzie tam generalnie można i wątki tworzyć i się, i się, i się wymieniać różnymi rzeczami,
czyli de facto już o tych błędach dostępności można niby dyskutować.
No więc w sumie to jest wszystko ciekawe, co oni tam rozgrywają.
Natomiast jeśli chodzi o właśnie wywieranie nacisków i tak dalej, nie, jeśli chodzi o to,
że tam inny zespół ma do powiedzenia różne inne rzeczy i jedne rzeczy da się przeforsować inne, nie,
No to właśnie tym bardziej te feedbacki w sumie no nie, mimo że wiadomo czasami, albo często, jest zniechęcenie, no bo jak powiedzmy dany błąd nie jest naprawiany przez lata, a mimo że się go tam, requestów się wysyła 1500 i nic.
Ale w sumie chyba mimo wszystko nadal to robić, bo jak dane wzmianki będą co chwila się pojawiały, powiedzmy od coraz większej ilości osób, tak zwane zmasowane atak czy nacisk, no to w końcu to de facto kiedyś przejdzie.
więc tak naprawdę myślę, że tak czy inaczej warto, nie wiem, może to naiwne, może nie, ale w sumie gdzieś tam się mimo wszystko i tak staram to robić, nie?
Co do właśnie jeszcze wypowiedzi Sylwestra, to tak się troszkę ubawiłem po pachy, bo przecież po pierwsze nasi Apple Advisorzy, czy jak tam się nazywają,
dosyć od supportu technicznym, przecież oni tam muszą pracować,
więc de facto w Korgówsie w Irlandii Polacy pracują,
dzielnie nam tutaj służąc, to jest jedno. No a drugie przecież
przy tych różnych logistycznych, w tych różnych logistycznych działach
odpowiadających za dostawę i tak dalej, jeśli chodzi o zamówienia,
o przyjmowanie zamówień, też przecież pracują Polacy.
Kiedyś była taka jedna sytuacja w takim jednym podcaście, już nie pamiętam jak to się nazywało,
kompot, sok z jabłka, coś tam, był swego czasu taki podcast i tam gość opowiadał,
to znaczy jeden z prowadzących podcastu twórców opowiadał o tym, że Apple Watcha sobie tam chciał zamówić.
No i tam wszystko, rozmowa się odbywała po angielsku, ale kiedy doszło do przeliterowania nazwisk,
do literowania nazwiska, nagle się pan po drugiej stronie odpowiadał po polsku,
O, Rychlewski, cześć, coś tam tego i zaczęli po polsku sobie rozmawiać normalnie już.
No więc to gdzieś tam dowodzi już w ogóle pomijając to, że Steve Woźniak jest.
Właśnie, Maćku, o tym miałem wspomnieć, że nazwisko współzałożyciela Apple jakoś tak polsko brzmi.
Jakoś podejrzanie, no kreseczkę urwało przy zecie, no ale to tak już, prawda, amerykanizacja pewnie tam postąpiła.
Ale sam mówi, że jemu Polska też jest bliska sercu.
Coś tam, parę razy tutaj był i tak dalej, więc wiadomo, to Apla nie zmieni,
bo tak jak mówicie, mówimy tutaj też kwestie biznesowe,
to jakie udziały ma na danym rynku firma, no i numbersy muszą się zgadzać.
No ale, no właśnie, Polacy tam pracują, tylko kwestia jest,
właśnie, tej sprzedaży, tu u nas to jest jedno,
no i też zaangażowania, też nacisków.
W sumie spoko, że ta petycja powstała, ja tam w sumie jestem gdzieś poniekąd neutralny,
może być raczej inaczej, ani nie neguję, ani nie jestem jakoś bardzo pozytywnie nastawiony.
Jak chcą działać, niech działają, w sumie pozwólmy im to robić i okej, nie?
Jeśli chodzi o właśnie, o Koleo, żeście wspominali,
Natomiast do aplikacji MagWhisper został dzisiaj dodany moduł stricte dyktowania,
bo poniekąd wcześniej można to było robić.
Tam z menu, gdzieś tam w pasku zagnieżdżonego z tego menu statusu można sobie tam było
jakoś tam ogarniać, ale tylko w jednym tym polu tekstowym stricte MagWhispera
Można sobie było tekst podyktować poniekąd i wynik tej transkrypcji pojawiał się nam stricte w tym polu.
A teraz pan Jordi Brown postanowił sobie to rozszerzyć.
No i teraz można sobie już dyktować w każdym polu tekstowym na Macoessie.
I to się automatycznie wpisuje?
Tak, to znaczy, wiesz co, ustawiasz sobie globalny skrót, jaki tam chcesz.
I ten, no i go naciska w tym polu, to tam się dyktuje, dyktuje, dyktuje, rozpoznaje, znaczy ty tam mówisz sobie, mówisz, mówisz, mówisz, no i w zależności od modelu jaki tam sobie wybierzesz, czy to jest large, czy medium, czy small, czy inny, no to to też sobie gdzieś tam swoje chwilkę potrwa wiadomo, ale wynik finalny jest, powiedzmy w jakiejś wiadomości iMessage powiedzmy, czy powiedzmy w textedicie, czy gdzie tam sobie zapragniesz.
No i to generalnie działa, no wada, może poniekąd wada jedyna jest tego taka, że ten program, jeśli się chce go używać, tego rozwiązania, tego dyktowania, musi być otwarty, tak czy inaczej.
Nie da się, żeby on sobie gdzieś tam to w tle działało, tam jest jakaś paska i żeby to było wywoływane od tak po prostu tym skrótem, ale jak już ten program mamy otwarty,
model dany po aktualizacji, bo też sobie trzeba model po aktualizacji na nowo gdzieś tam załadować,
ale działa, działa, testowałem, działa, mało tego, jeżeli sobie podepniemy klucz API od tego,
od OpenAI, to możemy mu też prompty różne właśnie pisać, jeśli chodzi o to dyktowanie,
inne tam jeszcze podpowiedzi, coś tam, tego akurat nie testowałem, ale tam możemy sobie też jakoś to poniekąd personalizować, więc w sumie, no ciekawy się rozwój apki zapowiada, szkoda, że na iOSie jest stagnacja, trochę, trochę bardzo w sumie, bo aktualizacji póki co nie ma, wyszła sobie tylko jedna wersja i sobie to stoi, no ale widać, że fajnie, bo to doszło.
Ale jeśli chodzi o iOS-a i o VoiceDream-a, w sumie nie wiem ilu użytkowników ucieszy, ilu nie.
Natomiast jakby sobie ktoś chciał angielskie teksty czytać, no to już pojawiło się, ponoć, nie testowałem,
ale ponoć w Change.logu jest wsparcie dla personal voice’a, dla głosu osobistego, indywidualnego, jak to na polskim się tłumaczy.
Więc ktoś lubi, ktoś chce, to można.
I chyba na koniec, jeszcze Wam może opowiem o takim interesującym bugu, który mi się przytrafił, bo ogólnie wersje działają stabilnie, iOS-a, macOS-a, w sumie i tak dalej, te osiemnastki, całkiem fajnie.
No poza tym, że to wykrywanie języków mnie strasznie wkurza, które się przełącza ten, w narzędziu VoiceOver to pole wyboru odnośnie wykrywania języków i to dalej sobie działa jak chce.
I miejmy nadzieję, że zostanie to naprawione jednak w tej czwartej becie, bo to jest dosyć wciążliwe.
Natomiast bug w iOS-ie, można by rzec krytyczny, który jak ktoś nie zachowa zimnej krwi i uba na karku, to może uceklić nasz telefon, trochę poniekąd, dostępnościowo,
bo opcja, która została wprowadzona właśnie w tegorocznych systemach, mianowicie skróty głosowe.
No i co? Do drugiej bety to działało tak, że przy konfiguracji czy przy włączeniu tej funkcji nam się ładnie przełączało na głośnik do rozmów, no okej, jak się zadzwoniło gdziekolwiek i przełączyło na tryb głośnomówiący, można sobie to było, że tak powiem, z powrotem przekierować po rozłączeniu, ale no teraz niestety pojawił się błąd taki, że po włączeniu tej funkcji, słuchajcie, telefon do nas totalnie przestaje gadać,
Nic, zupełnie nie ma, jakbyście, że tak powiem, załączyli kurtynę dźwiękową plus to, że nie ma w ogóle haptyki voice-overa.
Niby voice-over działa, niby jest, natomiast haptyki nie ma w ogóle i nie ma w ogóle tej, nie ma w ogóle dźwięku.
Gdy się próbuje, a i działa tylko Siri, działa tylko Siri, ale to jeszcze nic, że tak powiem, na mnie nie pomaga.
Dopiero po wymuszonym restarcie iPhona, jak się go zrestartuje, wpisze się kod na czuja dosłownie z wejścia ekranu Braille’a,
bo dobrze teraz można.
W łączeniu Siri na chwilę i jej wyłączeniu cały dźwięk nam
dopiero wraca, więc takie rozwiązanie troszkę
niezbyt oczywiste, natomiast mi się udało przez to
ocalić telefon bez, prawda, angażowania
osoby widzącej jakiejkolwiek.
Natomiast no właśnie, ostrożnie z tymi betami też, nie?
No tak, to prawda.
I z tym, co testujemy.
I tak, i tak na koniec, dosłownie na koniec, żeby nie było,
że będę czterdzieści minut i no właśnie.
A propos udostępniania ekranu po fejstajmie,
bo oczywiście no możemy jest,
a właśnie odnośnie rozmów po fejstajmie
to jeszcze jedna rzecz.
Nie działa w tej trzeciej becie teraz
w ogóle tryb izolacji.
Nie możemy sobie przełączać teraz tych
trybów izolacji na iOSie.
Na iOSie na Macu możemy,
na iOSie nie.
Jak do drugiej bety można było,
znaczy nie były oznajmiane stany
przełączników, który tryb jest wybrany,
tak można było sobie to ogarnąć, a teraz niestety nie, nie ma w ogóle w centrum sterowania opcji,
aczkolwiek dostosowanie już w centrum sterowania i tak jak mówiłeś Piotrek i dostosowanie ekranu blokady
już teraz działa bajecznie i responsywnie, więc fajnie.
Natomiast udostępnianie ekranu po facetime’ie, tak ostatnio sobie testowałem z jednym kolegą
i sytuacja ma się następująca, dlaczego tak naprawdę tego voice-overa nie słychać
I dlaczego tego dźwięku nie słychać?
Przecież my udostępniamy ekran, nie?
A tu się okazuje, że trzeba w Sznepie
wszystkie aplikacje, dosłownie wszystkie aplikacje
pozamykać.
Wszystko, co tam mamy.
Tylko okienko z Facetime’em niechaj pozostaje aktywne
i dopiero się wtedy pojawia komunikat
udostępni cały ekran retinalny
coś tam, coś tam, coś tam, coś tam.
Jeżeli my to damy, to
wtedy dźwięk jest elegancko już nam udostępniany
i dopiero możemy sobie
śmiało aplikację otwierać.
Także, no, gdyby się ktoś zastanawiał, dlaczego to tam się dzieje, to, no to tak jest.
To zresztą przechodziło swoje różne ewolucje i rewolucje poniekąd, bo, bo to tam jeszcze się ukrywało pod F2F2,
pod, jeśli chodzi o te okna dialogowe, te takie wyskakujące, no tam, i systemowe okno dialogowe, o właśnie.
No właśnie, to, to, to tam gdzieś się ukrywało.
Teraz znowu przeszło taką metamorfozę znowu, że trzeba sobie najpierw wszystkie aplikacje pozamykać,
żeby móc ekran udostępniać, także takie to są ciekawostki.
I co do WP Pilota, to rzeczywiście będzie ostatnia rzecz.
Na Apple TV wyszła sobie aplikacja, nie było jej, teraz jest.
No i w sumie poniekąd też skłoniło do zakupu Apple TV,
no i w sumie mam, bo okej, Netflixy, bo okej, powiedzmy,
Polsat, BoxGo i tak dalej, ale te, powiedzmy, kanały naziemne
czy czarno, powiedzmy, naziemne, i te stwory też by się przydały, nie?
W Kanal Plusie okej, Kanal Plus Online niby tam jest coś, ale tak niby sporo, niby nie,
więc tego WP Pilota jeszcze jako do pełni nie chciałem mieć.
No i jak się dowiedziałem, że aplikacja WP Pilot rzeczywiście jest na Apple TV,
no to też właśnie Apple TV kupiłem, żeby było śmiesznie,
bardziej teraz korzystam z Kanal Plusa, bo tam są ogłaszane nazwy kanałów
przy tym, przy programie telewizyjnym, no ale cóż, no aplikacja jest w razie można, w razie co można testować, no i…
Ale jak rozumiem audiodeskrypcji nie ma na programach nadal w WP Pilocie.
Nie, nie, nie, to możemy sobie w sumie pomarzyć o tym nadal niestety, ja tak się zastanawiam czy w sumie coś by nie można było
przeforsować u Kanal Plusa tam w tej aplikacji, bo no bo oni tam, skoro się proszą o feedbacki i o opinie, jak sobie tam teraz odnowiłem, zaś znowu członkostwo subskrypcję, no to…
Kiedyś ta subskrypcja była.
No właśnie, ale ja w ogóle mam wrażenie, że się ostatnio, jeżeli chodzi o Kanal Plusa, przynajmniej o te ich materiały produkcji własnej, to się coś popsuło, jeżeli chodzi o audiodeskrypcję.
I to chyba, albo im ze statystyk wyszło, że mało osób to ogląda,
bo już któryś kolejny materiał produkcji Kanal Plus widziałem ostatnio, że nie miał audiodeskrypcji.
Więc tak trochę szkoda, bo oni naprawdę dobrze się trzymali z tym i praktycznie wszystko, co produkowali,
mówię o tych, zwłaszcza tych serialach, ich premium, no to z audiodeskrypcją było.
A teraz się to tak jakoś popsuło.
Ja chyba około roku temu próbowałem tam szukać, żeby tak sobie coś tak oglądnąć, bo jak jeszcze tam miałem, opłacałem sobie chwilkę, też niedługo, no to właśnie jakoś tak, żeby coś znaleźć, tak nie wiem, ciężko z tym miałem w sumie, więc nie wiem.
Natomiast w ogóle te platformy, ja mam wrażenie, że tak, jeśli chodzi o te audiodeskrypcje, no Amazon Prime to też tak w sumie, no angielskie chyba tam są te audiodeskrypcje.
Oj, Maćku, Netflix z Eleven Lapsem to teraz po prostu trzaska tych audiodeskrypcji, mam wrażenie, coraz więcej.
Ale Netflix, tak. No tak, tylko są kwiatki typu ustęp zamiast coś tam w tym albo zamarzało, że coś tam zamarzało.
No nie, no wiesz, no.
Tak, no oczywiście.
Wyklęcanie na audio tam jest zapotężne.
Poza tym, poza tym jeszcze jedna rzecz.
Zauważyłem, że tam chyba te kody czasowe, w których ta audiodeskrypcja może być wprowadzona
są produkowane jakby z tej oryginalnej ścieżki.
Bo jak mamy lektora w danym materiale i audiodeskrypcję,
to nierzadko bywa, że jedno na drugie się tak minimalnie,
ale jednak troszkę nakłada.
Ale też jest takie, jakieś takie, zauważyłem, chamskie złagodzenie dźwięku.
Tak, tak, tak.
Ostatnio, ostatnio oglądałem w ten sposób gliniarza z Beverly Hills.
no to tam się zresztą dość dużo działo, jakieś pościgi, te samochody ryczały, więc…
A ten dźwięk się…
No już najlepsze, nie?
Mało przyjemne to doświadczenie było.
No, a tak a propos właśnie tego ustępu, to tam było, że jakiś bohater, coś tam,
że ktoś tam nie mógł otworzyć ust, a wiemy, że jeżeli jest ust i kropka, to jest ustęp,
więc nie mógł otworzyć ustęp, nie? Także tak wyszło śmiesznie.
Okej.
I tym ustępem chyba zejdę z anteny.
Dobrze Maćku, dzięki za telefon w takim razie.
Dzięki wielkie, pa pa.
Do usłyszenia, pozdrawiamy cię serdecznie.
To teraz jeszcze może zajrzyjmy do komentarzy.
Skoro tak jesteśmy w temacie Apple’a, to mamy tu komentarz od naszego słuchacza Andrzeja.
Witam tyfloprzeglądowiczów, piszę do was, ponieważ nurtuje mnie pewne zagadnienie.
Otóż sprawa wygląda tak, że gdy ja dzwonię do jednej koleżanki za pomocą Facetime’a, to bez problemu mogę się dodzwonić.
Zaś gdy ona próbuje do mnie zadzwonić, to nie dość, że takiego połączenia nie mogę odebrać, gdyż nie jest ono w żaden sposób sygnalizowane,
to nawet gdy potem przeglądam spis połączeń, okazuje się, że nie ma śladu, iż takie połączenie w ogóle miało miejsce.
Czy ktoś wie, dlaczego tak się dzieje i jak to naprawić? Pozdrawiam i kłaniam się, Andrzej”.
To jest ciekawa rzecz, jedyne co mi przychodzi do głowy, to być może, że kiedy ty dzwonisz,
to masz ustawione przy Facetime’ie na przykład, no nie wiem, twój adres mailowy, a nie numer telefonu?
Tak, to też mój pierwszy pomysł właśnie, żeby sobie w ustawieniach Facetime zweryfikować.
Tam jest taki nagłówek, że można do ciebie zadzwonić się przez Facetime przez i tam mamy tak jakby pola wyboru.
Będzie nasz adres e-mail, będzie nasz numer telefonu i po prostu musisz się upewnić, że oba te pola tak jakby są zaznaczone
i wtedy ten FaceTime jest gdzieś zarejestrowany na serwerach Apple.
No można ewentualnie spróbować odznaczyć ten numer telefonu i zaznaczyć ponownie.
Może to spowoduje, że to się jeszcze raz aktywuje.
Więc to jedno.
A druga rzecz, może problem jest gdzieś na przykład z tym, jak twoja koleżanka
ma twój numer zapisany w kontaktach.
Może Apple gubi się, bo na przykład ma zapisany twój numer w kontaktach bez
numeru kierunkowego.
Nie wiem, czy FaceTime jest na tyle mądry, że sobie sam dopisze ten numer kierunkowy, no więc warto…
Zazwyczaj tak, ale różnie to może być.
Ale warto ręcznie to plus 48 na początku dopisać.
Może być to.
Więc tyle mamy pomysłów.
Andrzeju, daj znać z ciekawości, czy któryś z nich rozwiązał Twój problem.
A teraz przechodzimy dalej, przechodzimy do drobnych newsów.
Piotrze?
Tak jest.
Co mamy w drobnych newsach?
Tak, no mamy kilka tematów, zaczynając od nawiązania do audycji sprzed kilku tygodni, w której to informowałem was o tym, że
po tym jak Polsat Box, czy właściwie cyfrowy Polsat mówił, że nigdy nie wypuszczą dekoderów opartych o Androida, bo podoba im się ich autorski system oparty na Linuxa,
Ostatecznie skończyło się na tym, że dekoder oparty o Androida wypuścili, co dla nas jak najbardziej może być dobrą wiadomością.
Był to dekoder Soundbox 4K.
Czytałem wam jego parametry.
No i wtedy rzuciłem pytanie w ether, czy ktoś może testował, jak jest z jego dostępnością.
No i okazuje się, że temat was zainteresował i napisał do mnie Dawid, bardzo ci dziękuję z góry.
Właściwie napisał to grupy Niedawidome i Niedawidzący, pądźmy razem na Facebooku.
Bo nabył sobie taki dekoder i zwrócił mi właśnie uwagę, że taki post zamieścił.
I co można w skrócie powiedzieć?
No można powiedzieć tyle, że jak najbardziej dostępny jest.
Działa przy włączaniu programów, są te programy czytane.
No, że to jest Android TV, jeśli korzystamy z aplikacji na Android TV,
które są dostępne, no to one na tym dekoderze dostępne też będą.
Dekoder ma wyszukiwanie głosowe i to wyszukiwanie głosowe też dostępne jest, więc tutaj przypuszczam, że też jakieś wszystkie budowane funkcje, jakieś programowanie, na przykład nagrywania, no to dostępne też powinno być, więc myślę, że jeśli ktoś ma telewizję satelitarną, czy nawet IPTV z Polsatu i szuka dostępnego dekodera, bo ich tak poprzednie dekodery dostępne nie były, to jak najbardziej może być dobra opcja.
Jest niestety jedno, ale ja byłem tutaj gotowy zwalić winę na Polsat, ale to chyba jest wina Google’a właściwie, z tego co się próbowałem doszukać.
Mianowicie, niestety, ten czynnik ekranu tego Talkbacka musi nam, bardzo przepraszam, musi nam włączyć osoba widząca, bo Android TV owszem ma skrót dostępności.
Można my sobie taki skrót włączyć, to jest przytrzymanie przycisku wróć oraz strzałki chyba w dół na pilocie przez kilka sekund i tak można sobie skonfigurować jakie usługi dostępności to ma włączać, domyślnie nawet to jest TalkBack jeśli ten skrót włączymy.
No ale właśnie, w oficjalnej nawet dokumentacji wsparcia Android TV Google samo pisze, że do włączenia TalkBacka potrzebujemy pomocy osoby widzącej i kiedy tego TalkBacka mamy włączonego to ten skrót dostępności możemy sobie uaktywnić.
Natomiast rozumiem przez to też, że właśnie na ekranie konfiguracji wstępnej ten
skrót dostępności też po prostu nie działa, a to jest duża luka niestety.
No ale jeśli mamy osobę widzącą gdzieś, no ewentualnie może jakby nam ktoś tą
telewizję instalował, może poprosić po prostu serwis Antutu, póki jest w tym
miejscu, żeby nam tego TalkBacka włączył, no ewentualnie właśnie poprosić osobę
widzącą, kiedy już to zrobimy, no to jak najbardziej ten decoder dostępny dla
nas powinien być. Także jak ktoś się zastanawiał, ma akurat telewizję od tego
dostawcy, no to myślę, że spokojnie można się tematem interesować.
Następnie coś dla użytkowników Thunderbirda i konkretnie czytnika NVDA, bo oto
zaktualizował się dodatek, który usprawnia jego wsparcie.
Mianowicie jest to dodatek Thunderbird Plus G5, który no właśnie jest dodatkiem,
który usprawia nam działanie właśnie tej najnowszej wersji Thunderbirda,
która gdzieś tam znacząco podmieniała to, jak działa interfejs.
I co w tym dodatku zostało dodane?
No taka główna nowość jest taka, że dodatek dostał nowy skrót klawiszowy,
który może przenieść nam focus na liście wiadomości w wybrane przez nas miejsce.
Jakie to może być miejsce, to jest coś, co możemy zdecydować sami.
Gier sobie ściągniemy tą najnowszą wersję i ta wersja jest wersją beta.
Ja tutaj może szybko podejrzę czy ten dodatek jest w sklepie z dodatkami.
Wydaje mi się, że tak.
Ale jeszcze szybko tutaj to zweryfikujemy.
Jak mi się załaduje lista? Tak.
Tak jak najbardziej.
jest ta wersja g5 tak jest w sklepie dodatkami można sobie po prostu ze sklepu ten dodatek wyszukać
menu skrót z menu z dodatkowymi funkcjami tego dodatku został przeniesiony bo wcześniej naciskaliśmy
klawisz akcent tutaj pisze autor klawisz nad tabem czyli w polskim układzie to jest po prostu klawisz
akcentu no teraz to menu wywołujemy skrótem kontrol akcent dlatego że sam akcent będzie nam wykonywał
właśnie tą nową funkcję, którą my sobie dostosowujemy sami.
A ja co możemy zrobić?
W głównym oknie Thunderbirda
naciskamy shift i akcent i z menu wybieramy opcję
opcję focusa i startu.
I tam możemy zdecydować co się stanie, kiedy naciśniemy
możemy zdecydować co się stanie, kiedy naciśniemy klawisz akcent.
Domyślnie nie stanie się nic, ale możemy zdecydować, żeby dodatek przeniósł nam fokus na ostatnią wiadomość na liście, pierwszą nieprzeczytaną wiadomość lub drzewo z folderami.
Także jeśli chcemy szybko na przykład właśnie znaleźć pierwszą nieprzeczytaną wiadomość lub powrócić do drzewka z folderami, no to możemy sobie to zrobić i możemy też zdecydować, żeby to ustawienie było zapamiętane przy uruchomieniu Thunderbirda, więc jeśli nie chcemy każdym razem wybierać, co ma klawisz Accent robić, no to możemy to zrobić.
No i wtedy z dowolnego miejsca w głównym oknie Thunderbirda naciskając klawisz
akcent, focus zostanie przeniesiony w wybrane przez nas miejsce.
Ponadto na liście folderów możemy też po prostu nacisnąć spację i wykonać to
dokładnie ten sam skrót.
Więc na przykład możemy sobie wybrać jakiś katalog, powiedzmy jakieś listy
dyskusyjne i gdybyśmy na przykład ustawili sobie, że ma nas przenieść do pierwszej
nieprzeczytanej wiadomości, no to jak naciśniemy spację, no to dodatek nas
automatycznie właśnie przeniesie na listę wiadomości i ustawi się na pierwszej
wiadomości, która została nieprzeczytana.
Także wydaje mi się jak najbardziej przydatna opcja.
Tutaj autor prosi o informację zwrotną, czy to ludziom działa, więc jeśli
korzystacie z tego klienta poczty, który wydaje mi się jest dość popularny,
no to warto sobie ten dodatek ściągnąć, przetestować i ewentualnie
odezwać się do autora, jeśli Wam wszystko działa, albo wręcz odwrotnie,
gdyby jakieś błędy się pojawiły.
Następnie mamy aktualizację programu, o którym ja też jakiś czas temu
wspominałem, mianowicie jest to aplikacja Sauma i Braille.
Co to jest za program?
To jest darmowy program, w którym możemy sobie drukować różne rzeczy
w Braille’u, nawet tłumaczyć na Braille’a, więc to jest trochę coś,
co działa podobnie np. do Winbraila czy dopłatnego Duxberry z tym, że ta aplikacja jest zupełnie darmowa,
bazuje na tablicach LibriVisa, ale też ma bardzo rozbudowane wsparcie dla drukowania i czytania zresztą matematyki,
bo tutaj mamy wsparcie dla MavCata, co za tym idzie np. możemy dla techu pisać czy importować równania z Worda
oraz rozbudowane wsparcie dla nut brailowskich, więc możemy sobie importować muzykę.
Wcześniej to była muzyka w formacie music.xml, ale teraz właśnie w tej najnowszej wersji to zostało rozbudowane.
No, tych zmian jest dużo, więc ja tutaj postaram się powiedzieć o najważniejszych.
No, Libluis się zaktualizował, dzięki czemu mamy dużo nowych języków, m.in. serbskiego w Cyrillicy, dla hebrajskiego w Yiddish.
No i tutaj te nowe języki, które też w MVDA się nierawno pojawiły.
Mamy też poprawki dla tablic holenderskiej i węgierskiej.
MathCAD się zaktualizował, dzięki czemu równania mogą być czytane po włosku i po szwedzku.
Jest teraz wspierane kilka nowych kodów brajla matematycznego,
m.in. ASCII Math, LATEX i szwedzki zapis równojmatematycznych w brajlu.
Mamy tutaj poprawki responsywności, czytnik ekranu nam będą czytały, jeśli mamy włączone sprawdzanie pisowni podczas pisania, jeśli napiszemy jakieś słowo źle.
Ale jeśli chodzi o muzykę, no to tutaj są takie dwa, zmian w ogóle jest 27 jeśli chodzi o muzykę, więc może nie będę czytał wszystkich.
Jeśli ktoś chce, to może sobie podejrzeć, natomiast takie najważniejsze, po pierwsze został dodany tryb podglądu muzyki, z dowolnego miejsca możemy nacisnąć Shift F5 i wtedy sobie możemy z czołgami chodzić po pięciolinii i po prostu zarówno odczytywać, jak i odsłuchiwać te nuty, które mamy załadowane, mamy tutaj nawet wideo z samouczkiem, jeśli ktoś by chciał sobie nauczyć się, jak ta funkcja działa, a ponadto, jeśli mamy na komputerze też
zainstalowaną aplikację MuseCore, a MuseCore to jest darmowy program do tworzenia nut,
no to aplikacja jest w stanie importować nie tylko pliki music.xml, ale też np. pliki midi,
właśnie projekty MuseCore, no właśnie używając tej aplikacji jako konwertera,
więc np. jeśli sobie klikniemy na jakiś plik midi na komputerze, no to automatycznie
zostanie on skonwertowany do XML-a i jest czytany na aplikacji, no i co za tym idzie,
Później możemy sobie go odsłuchać, przejrzeć, wydrukować nuty w Braille’u, gdybyśmy tego potrzebowali.
Także bardzo wydaje mi się przydatna opcja i tutaj mamy dużo też mniejszych poprawek, jeśli chodzi o pracę z nutami w tej aplikacji.
Następnie aplikacje mobilne, mianowicie Eleven Labs Reader, czyli aplikacja, która nam ma pozwolić na czytanie książek głosami Eleven Labs na ten moment na iPhonie, ale też za jakiś czas na Androidzie.
Aplikacja jakiś czas była w App Store ustawiona jako przedsprzedaż, chyba do lipca, bo to był zeszły tydzień, teraz nie pamiętam, który to był, lipiec, to był zeszły tydzień mniej więcej, i można było sobie włączyć powiadomienie, kiedy ta aplikacja miała być dostępna.
No i było obiecywane, że właśnie z tym czasem pewnie miały pojawić się modele wielojęzyczne, bo na ten moment aplikacja jest ograniczona do wyłącznie języka angielskiego.
No i słuchajcie, dostałem w ten dzień powiadomienie właśnie od Appla, że aplikacja jest dostępna, więc się ucieszyłem, otworzyłem sobie AppStore’a, a to niespodzianka, bo AppStore kompletnie nie wiedział co się dzieje,
dlatego, że miałem dostępny przycisk Otwórz, ale też informację, że aplikacja ma się jednak pojawić dopiero w październiku.
A to ja, Piotrze, akurat zdążyłem pobrać tę aplikację, zdążyłem ją…
A to ja też.
A, dałeś radę ją jednak zainstalować.
Właśnie miałem to powiedzieć. Przez to, że włączyłem sobie to powiadomienie, to iOS mi tę aplikację w tle ściągnął.
I ja mam cały czas ten przycisk Otwórz w App Store, który nie działa, ale aplikacja jest na telefonie i mogę ją otworzyć.
Tak, tak. Jak twoje wrażenia z ciekawości? Bo moje, no spodziewałem się jednak, że trochę będzie lepiej, ale jeżeli ktoś liczy, że to będzie taki voice dream, jeżeli chodzi o możliwości albo przynajmniej coś podobnego, to zrodzę się rozczaruję.
Oczywiście polskich głosów to na razie nie ma, są tylko głosy angielskie, przynajmniej z tego co gdzieś tam zaobserwowałem, ale dostępność samej aplikacji, nieopisane przyciski, jakiś w ogóle brak zdefiniowania tych różnych elementów jako przyciski, bardzo słabo to wygląda.
Tak, z tym co ciekawe, w pierwszych wersjach było lepiej, tam to później coś się popsuło, więc to też ciekawe jak do tego doszło, no ale niestety chyba się nie dowiemy, miejmy nadzieję, że w październiku, kiedy już to, miejmy nadzieję, faktycznie się pojawi i to ze wsparciem dla języka polskiego, no to już z tym będzie lepiej, natomiast właśnie, jak ktoś sobie to zdążył pobrać, no to ma, możecie testować, na razie jest to wszystko dostępne za darmo, a to będzie w październiku, czy jeszcze, przez to, że to się uprawia,
Później też jakiś okres darmowy będzie, no pożyjemy, zobaczymy.
Na ten moment sytuacja, przynajmniej na iOSie, wygląda właśnie w ten sposób.
I nie na koniec taka smutna informacja związana z portalem Apple Vis, na którym
pojawiła się informacja, że pan David Goodwin, czyli założyciel i zarazem też
główny administrator i osoba, która była odpowiedzialna też za kierunek rozwoju
portalu Apoviz, został zaplany do szpitala, gdzie spędził dłuższy czas na
intensywnej terapii, otarł się o śmierć.
Udało się na szczęście jego stan ustabilizować, natomiast był ciężko chory
i gdzieś cały czas jest w szpitalu i dochodzi do siebie.
Miejmy nadzieję, że do zdrowia wróci.
Natomiast właśnie poprosił pozostałych moderatorów portalu, żeby właśnie taką wiadomość dla ludzi napisać.
Przez to, że właśnie on był po pierwsze odpowiedzialny za zarządzanie tą stroną, zarówno od strony technicznej,
co też jest bardzo ważne, wiadomo, utrzymywanie zwłaszcza tak dużej strony zajmuje trochę czasu i jest dosyć skomplikowane,
jak i rozwojowej, on właśnie decydował, w jaką stronę ten portal pójdzie.
Na ten moment nie wiadomo dokładnie, co będzie się dalej działo z tą stroną.
Ona oczywiście cały czas będzie i moderatorzy tutaj pozostali mówią, że będą w miarę możliwości
starać się odpowiadać na pytania ludzi, bo mało będzie to wszystko funkcjonowało tak jak do tej pory.
Proszą o zrozumienie, niektóre rzeczy mogą zająć mniej, trochę więcej czasu, zobaczymy czy zostaną zatrudnione jakieś dodatkowe osoby, które pomogą właśnie w administracji serwerów zwłaszcza, no i zobaczymy jak będzie wyglądała sytuacja z podejmowaniem decyzji, jeśli chodzi o przyszłość tego portalu.
Oczywiście też myślę, że najważniejszą rzeczą, którą możemy powiedzieć w tym momencie, że to życzymy Panu Davidowi jak najszybszego powrotu do zdrowia.
No i tego, żeby jeśli faktycznie może nie będzie już w stanie pracować tak dużo na tą stronę, że uda się znaleźć jakieś rozwiązanie, bo myślę, że na pewno w społeczności znajdą się osoby,
które będą chętne pomóc, nawet już na Macedonii widziałem nawet takie komentarze osób, które dziś mają doświadczenie za administracją, że byłyby skore gdzieś pomóc, jeśli będzie to potrzebne,
że znajdą się faktycznie osoby, które pomogą utrzymać tą stronę, która no przez 15 lat, a już tyle ma, a po WIS zdążyła skromadzić no bardzo dużo przydatnej informacji i bardzo dużą społeczność, która cały czas mimo wszystko rośnie.
Także no właśnie, życzymy szybkiego powrotu do zdrowia i miejmy nadzieję, że…
To może, żeby nie kończyć taką smutną nutę, to ja dogram się jeszcze z drobnym newsem, który znalazłem w sumie w ostatniej chwili, a znalazłem go na Eltenie.
I tam użytkownik Cinkciarz wrzucił informację o pewnej ciekawej klawiaturze na Androide, klawiaturze Futo, która to klawiatura pozwala na dyktowanie za pomocą whispera.
I to autentycznie działa, z opisu wynika tak, że pobieramy model whispera na nasz smartfon i offline możemy prowadzić dyktowanie za pomocą whispera.
z wszystkimi tego zaletami, ponoć dobrze sobie radzi z interpunkcją, dobrze sobie to radzi z różnymi neologizmami, także mamy dyktowanie whisperem, trochę dłużej to ponoć działa przy dłuższych wypowiedziach, zanim on sobie to przetworzy, no bo wiadomo, to tylko smartfon.
Natomiast było to polecane, ponoć też można zainstalować rozpoznawanie głosu, czyli dyktowanie, jako usługę dyktowania, czyli teoretycznie powinno się dać, aczkolwiek cinkciarzowi się to jeszcze nie udało, podpiąć dyktowanie to whisperowe z Futo do jakiejkolwiek innej klawiatury, na przykład Advanced Braille Keyboard, może wymaga to jeszcze jakiegoś pogrzebania w systemie.
Natomiast wygląda na to, że dyktowaniu eSPR-em na Androidzie jest możliwe.
No okej, to w takim razie, jeszcze a propos tych klawiatur, to powiem, że też widziałem tego newsa i szukałem czegoś na iOS-a.
I na iOS-a nie jest tak wesoło, bo mimo tego, że jest kilka podobnych narzędzi,
tak jak tutaj Futo, ale niestety to wszystko jest płatne i to płatne wcale nie tak znowu mało, bo to zwykle działa na tej zasadzie, że my te nasze głosowe wypowiedzi wysyłamy do OpenAI zazwyczaj i to się wszystko whisperuje po stronie chmury.
Więc, no, ja mam nadzieję, że też i w kwestii Whispera coś na iOSie się poprawi,
że tu zacznie to rzeczywiście działać.
Aczkolwiek, jeżeli ktoś na przykład chciałby mieć jakieś narzędzie na okrętkę, tak, do dyktowania
czegoś głosowo w lepszej jakości, z lepszym rozpoznawaniem,
to zawsze sobie może radzić po prostu wprowadzając tekst głosowo do czata GPT.
do aplikacji ChatGPT, bo tam też jest gdzieś Whisper i to chyba właśnie Whisper po stronie ChataGPT, po stronie OpenAI, który z racji tego, że mamy go w aplikacji, to mamy go za darmo, więc taki trochę cebula deal, że tak powiem.
A teraz przechodzimy do kolejnych tematów, mianowicie ostatnio, to już nawet przed audycją poprzednią,
zastanowiłem się z takim artykułem mówiącym o tym, że tak naprawdę duże modele językowe,
które też wspierają się no teoretycznie wizją, bo tak to ich twórcy mówią, że te modele językowe,
że one nie tylko są w stanie odbierać tekst, ale też słyszą i widzą.
No i zresztą my z tego bardzo intensywnie korzystamy,
chociażby w przypadku aplikacji Be My Eyes z modelu opracowanego przez OpenAI,
ale że te modele językowe, no tak naprawdę to nie do końca widzą
i tu tytuł tego artykułu mówi wprost,
Modele językowe są ślepe. Duże modele językowe są ślepe.
No i rzeczywiście badacze z dwóch uczelni,
Auburn University i University of Alberta,
podjęli się testów na tych modelach językowych,
na czterech modelach językowych,
na GPT 4.0,
na Gemini od Google,
i na dwóch modelach od Cloud’a,
czy właściwie od Antropica.
No i testowali na tych modelach takie bardzo podstawowe rzeczy.
Ja teraz nie będę oczywiście wymieniał tych wszystkich informacji,
co tam było testowane, będzie link do artykułu,
który będziecie sobie mogli przeczytać,
będziecie mogli sobie przeanalizować wyniki,
ale tak pokrótce mówiąc, jakie to były różnego rodzaju testy,
którym podano te modele językowe.
Ano na przykład kazano im policzyć
ile razy na danym rysunku przecięły się linie.
Kazano im policzyć i udzielić informacji ile mamy na przykład kół,
które się ze sobą stykają, które na siebie nachodzą,
które są rozłączne, albo na przykład w jaki, jakie litery
zostały w danym wyrazie podkreślone i jeżeli chodzi o te wyrazy, to tu bardzo ciekawie postąpiono w trakcie tego testu,
bo były wyrazy wzięte ze słownika, a na przykład był jakiś wyraz totalnie stanowiący zlepek liter,
w którym też podkreślono jakąś tam literkę w odpowiedni sposób, żeby no zmylić trochę te modele.
No i okazuje się, że tak naprawdę to GPT to wcale aż tak dobrze sobie nie radzi.
Rzeczywiście, jeżeli mowa o tych halucynacjach, to dość dużo się temu modelowi zdarza fantazjować,
a te rzeczy, te modele, które są autorstwa Antropica, no to radzą sobie bardzo często najlepiej.
Bo to jest Sonnet i Sonnet 3, Sonnet 3 i Sonnet 3,5.
Te dwa konkretnie modele były również testowane.
I one może nie we wszystkich tych wynikach, ale mają naprawdę całkiem niezłe wyniki, jeżeli chodzi o tę analizę tych różnych materiałów graficznych.
Więc tu rzeczywiście mamy coś ciekawego i mamy takie ciekawe spojrzenie na to.
Też dziś jeszcze, kiedy szukałem jakichś informacji na ten temat, no to oczywiście znalazłem sporo takiej polemiki,
jeżeli chodzi o ten artykuł, o te badania, tam zarzucano błędy metodologiczne autorom,
też stwierdzano, że to, że takie rzeczy, które są proste dla użytkownika widzącego, a nie są zrealizowane przez modele językowe,
no to nie mogą do końca świadczyć o tym, że te modele tak naprawdę nic nie widzą.
No ale ja myślę, że my jako niewidomi użytkownicy tych modeli, zwłaszcza GPT, no to możemy śmiało stwierdzić, że rzeczywiście zdarza im się i to bardzo często halucynować i o ile to jest naprawdę bardzo fajne rozwiązanie
I bardzo fajnie jest sobie posłuchać takiego opisu otoczenia, tego co tam się dzieje na przykład, że ten model nam wszystko bardzo ładnie opowie, opisze, przedstawi.
Ale jeżeli mamy sytuację, w której jest coś naprawdę istotnego, jeżeli to jest zwłaszcza jakiś tekst, to naprawdę na tych modelach nie ma co polegać.
i jak się okazuje, też nie do końca można polegać na nich, jeżeli chodzi o analizę także grafiki.
Na przykład jednym z tych zadań było coś, na co my tak naprawdę trochę liczymy, mam takie wrażenie,
przy okazji tych dużych modeli językowych, czyli kwestia jakichś różnych tras i połączeń
między konkretnymi stacjami wyznaczonymi na mapie i te modele też sobie nie do końca z tym radziły.
A to, no to myślę, że jest coś na co użytkownicy niewidomi jakoś tam mieliby chęć, żeby np. wczytać do takiego modelu
jakąś tam powiedzmy mapkę czy jakiś plan i żeby ten model nam go dobrze opisał albo np. żeby opisał nam to, co dokładnie widzi,
kiedy zrobimy mu zdjęcie tego, co przed nami, no i żeby nam faktycznie jakieś konkretne informacje na temat warunków, które są przed nami, żebyśmy mogli się bezpiecznie po danym terenie poruszać do starczu.
No a tu okazuje się, że i w tym mogą być problemy. No, ale miejmy nadzieję, że to rzeczywiście zostanie jakoś tam rozbudowywane.
te modele językowe, no cały czas nad nimi się pracuje, tu już coraz więcej firm nad tym ma zamiar się pochylać,
więc pozostaje mieć nadzieję, że rzeczywiście ktoś w końcu wymyśli, bo cały czas gdzieś tam na GitHubie na przykład się pojawiają jakieś pomysły,
jak wyeliminować albo ograniczyć halucynacje z dużych modeli językowych.
No to pozostaje mieć nadzieję, że ktoś w końcu trafi, że komuś się w końcu uda
i z tych modeli naprawdę będziemy mogli bezpiecznie i niezawodnie korzystać.
A teraz zanim przejdziemy do kolejnych wiadomości od nas,
to wiadomość głosowa od Maćka.
Cześć, ponownie to ja, Maciek.
Kłaniam się blisko i sugestię mam drobną.
Odnośnie tam poprzedniego bądź jeszcze odcinka wstecz,
Odnośnie tego, gdzie tam powiedzmy była sugestia, że tamte Tyflo przeglądy pojawiają się za opóźnieniem, takim i tak dalej, a słuchajcie, no to skoro tak, no to dlaczego by sobie na przykład nie zasubskrybować kanału Tyflo Podcastu, choćby nawet, czy właśnie jak z Facebooka i tam sobie te transmisje oglądnąć.
Właśnie problem z YouTube’em poniekąd jest taki, że to tylko można odpalić jakby z powiadomienia.
Z powiadomienia… No właśnie, w sekcji powiadomienia.
Tą transmisję powiedzmy już minioną.
No i właśnie, to jest bardziej powiedzmy dla użytkowników premium chyba jeszcze łatwiejsze.
Bo tam ten ekran nie trzeba go blokować i tak dalej, jeśli mówimy o apce na iOS’a i tak dalej.
Znaczy, nie można zablokować ekranu, gdy się nie jest użytkownikiem premium, a jeśli się ma premium, to jak najbardziej można, prawda, więc o tyle łatwiej.
No i co? I sobie w ten sposób gdzieś tam nadrabiać te flipodcasty.
Swoją drogą, Michale, byłaby taka opcja na przykład, żeby te transmisje, które de facto się odbywają, żeby one jakoś potem lądowały tam wiesz, w sekcji na żywo
i wtedy takie też jeszcze nieobrobione, wiesz, z muzyczkami itd. odcinki, żeby je tam zamieszczać.
W sumie, żeby one tam lądowały w tych transmisjach na żywo i wtedy, wiesz, możemy to było jakoś fajnie ogarnąć, nie?
Co sądzisz? I czy generalnie to się da tak zrobić w ten sposób?
Ja kiedyś próbowałem to w ten sposób robić i tam problem był o tyle, że kiedy rozpoczynałem następną transmisję,
to dziwne rzeczy się działy z tą transmisją poprzednią, tam się np. zdarzało, że coś się doklejało do tej poprzedniej transmisji,
więc tak naprawdę musiałbym za każdym razem jeszcze też na YouTubie tworzyć zupełnie, zupełnie nową transmisję, obawiam się.
Ale jeszcze sprawdzę to.
Ja tylko jeszcze podpowiem jedną rzecz, nie tylko z powodu, że nie można tą transmisję otworzyć,
Jeśli ją włączymy w czasie jej trwania, nawet później tego YouTube’a zamkniemy,
to ona cały czas będzie dla nas dostępna w historii naszej.
Nawet jeśli ona na kanale nie jest widoczna,
no to możemy sobie przejść na zakładkę Ty,
tutaj na aplikacji mobilnej, akurat to jest na tej ostatniej zakładce,
tam mamy historię i tam z tamtego miejsca też możemy sobie ją otworzyć.
Tylko musielibyśmy ją puścić w czasie trwania transmisji.
na transmisji. Później wiadomo już po prostu jej nie znajdziemy.
No to też warto o tym wiedzieć, więc jeżeli ktoś ma ochotę być na bieżąco z tyfloprzeglądami, no to też polecamy to rozwiązanie.
Teraz następne tematy, no i Piotrze dobrze, że mikrofon sobie włączyłeś, to go jeszcze nie wyłączaj, bo następne dwa twoje i zamykamy tyfloaktualności,
ale potem jeszcze będą technikalia, także jak to się ładnie po polsku mawia, stay tuned.
A zaczynamy od gier.
Zaczynamy od gier.
No nie będzie jakoś dużo informacji związanych z grami, natomiast kilka wydaje mi się ciekawych rzeczy się pojawiło.
Na przykład pojawiła się nowa gra, nowe RPG.
Konkretnie to jest takie, dosłownie można powiedzieć takie RPG w stylu z chińskim.
Jeśli ktoś już grał w gry tego typu no to mamy właśnie taki kolejny ostatnio dużo takich takich gier się pojawiło i ta najnowsza pozycja nazywa się Dragon Moon na razie jest dostępna wyłącznie w darmowej wersji demo bo za jakiś czas się wersja pełna pojawi natomiast co się jeszcze nie stało i jeśli ktoś chce sobie w to pograć no to tutaj taka kluczowa informacja jak to zresztą jest z innymi
chińskimi grami RPG, no musimy mieć tłumacza, a dodatkowo akurat w przypadku tej gry też musimy posilić się local emulatorem, czyli taką aplikacją, w której uruchamiamy program konfigurujący go tak, że wydaje mu się, że jest uruchomiony na chińskim Windowsie, w przeciwnym wypadku będą problemy z kodowaniem, natomiast odpowiednich znaków po chińsku będą nam się wyświetlały krzaczki, ale nie takie jak powinny być, więc nawet nam tłumacz TGC
nie pomoże. Też kiedy tą grę sobie rozpakowujemy, no to warto, archiwum do nas przychodzi z folderem też nazwanym po chińsku.
Kiedy ją będziemy sobie rozpakowywać, warto po prostu rozpakować ją do folderu bez chińskich znaków, np. po prostu Dragon Moon,
sobie gdzieś taki katalog stworzyć i można sobie grać. Gra wspiera zarówno głosy sapi, jak i np. obsługuje NVDA,
więc stąd już do tłumaczy droga prosta.
Pewnie ZSR też jest obsługiwany i on też ma wbudowane funkcje tłumaczące,
więc jeśli o to chodzi to nie powinno być z tym problemu.
A jeśli chodzi o samą grę no to fabuła jest taka,
że ludziom udało się przełamać barierę pomiędzy prawdziwym światem
a wirtualną rzeczywistością.
i tam różne rzeczy z tym związane zaczęły się odbywać.
Ja jeszcze przyznaję się, że nie zdążyłem tej gry przetestować,
natomiast z tego co widzę, osoby na forum Mario Games,
które sobie tą grę pobrały, to uchwalą sobie.
Jeśli ktoś właśnie lubi takie chińskie RPGi,
no to tutaj mamy kolejną pozycję, która wydaje mi się,
że jak najbardziej może was zaciekawić.
A następnie trochę porozmawiamy sobie o aktualizacjach i o konkursach, bo słuchajcie mamy konkurs przy okazji, mianowicie konkurs związany z Hearthstone’em, bo już jakiś czas temu wspominałem, że rzekuje się kolejne duże rozszerzenie do Hearthstone’a, związane zresztą z wakacjami, klimat wakacyjny, bo rozszerzenie nazywa się Tarapaty na tropikach,
Więc tutaj mamy, rozszerzenie ma miejsce w takim właśnie kurorcie wakacyjnym, do którego różni bohaterowie nie tylko przybywają, żeby odpocząć, no wiadomo, sektor w takich światach często bywa, no z tym odpoczynkiem będzie różnie.
Natomiast jeśli chodzi o samo rozszerzenie, no to będzie miało 160 nowych kart.
W tym na przykład pojawiło się nowe słowo klucz turysta, jeśli sobie takiego turysta do talii dodamy, no to on nam pozwoli dobierać karty z innych klas, czyli na przykład jeśli gramy magiem, a sobie dobierzemy jakiegoś turysta wojownika, no to będziemy mogli sobie dobierać karty wojownika tylko z tego właśnie najnowszego rozszerzenia, mimo to, że wojownikiem tak naprawdę nie jesteśmy, więc to pewnie będzie pozwalało na bardzo ciekawe kombinacje.
tworzenia nowych talii, więc jeśli ktoś lubi grać w tradycyjnego Hearthstone’a, to jest na co czekać.
Do 22 lipca można jeszcze sobie kupować zestawy z tym rozszerzeniem, np. taki standardowy zestaw, który kosztuje 50 euro,
czyli około 200 zł, tam 215 powiedzmy plus minus, to się będzie zmieniało, który nam da jedną kartę legendarną gwarantowaną
oraz 60 paczek, które możemy sobie otworzyć, później te paczki wiadomo
będzie można kupować ze złota, które zdobywamy w czasie gry oraz za
pieniądze, natomiast wiadomo wtedy te ceny pójdą do góry, więc jeśli gramy
dosyć dużo no to warto się zastanowić nad zakupem takiego zestawu zanim ten
nowy pakiet 23 lipca oficjalnie ruszy, albo możemy wziąć udział w konkursie.
Bo firma Blizzard postanowiła zrobić ukłon w stronę niewidomych graczy
i zwróciła się do głównego programisty, który pracuje nad modem Hearthstone Access w tym momencie.
Ja tutaj też nie wiem, czy to nie jest też ukłon w stronę tego, co kiedyś Brandon Cole robił,
bo Blizzard oczywiście z nim też współpracował i na jego transmisjach często były właśnie takie paczki rozdawane niewidomym graczom,
więc może tutaj, żeby gdzieś ta tradycja była kontynuowana.
Zwrócili się teraz po prostu do deweloperów moda Hearthstone Access
i są cztery takie standardowe zestawy właśnie, które zawierają 60 paczek rozdawane.
Konkurs trwa do piątku, więc jeśli słuchacie nas teraz na żywo, to możecie się zapisać.
Jeśli słuchacie nas z archiwów, no to już prawdopodobnie będzie po konkursie.
Natomiast jeśli słuchacie nas teraz, żeby w konkursie wziąć udział
Wystarczy dołączyć do oficjalnego serwera Hearthstone Access na Discordzie, link do którego znajdziecie na stronie hearthstoneaccess.com
Tam jest link Join our Discord, chyba mniej więcej jak wpiszecie Discord w wyszukiwarce czytelnika ekranu, to znajdzie wam ten link.
Jedyny już do tego serwera dołączymy, jednym z kanałów, który tam znajdziemy jest kanał Giveaway i tam po prostu wystarczy napisać jakąkolwiek wiadomość
Cześć, jestem zainteresowany, no co by tam nie napisać, po prostu coś napisać, najlepiej po angielsku, bo generalnie ten język na tym serwerze obowiązuje.
No i to wszystko, będziecie do konkursu wpisani, losowanie odbędzie się w piątek o godzinie 10 czasu polskiego, więc będzie na ewentualnie czas, jeśli byście tego zestawu nie wygrali, żeby jeszcze sobie ewentualnie dokupić go sami, jeśli jesteście tym zainteresowani.
Także myślę, że warto wziąć udział, ten konkurs jest darmowy, pojawiła się dzisiaj już aktualizacja, która grę do tego nowego zestawu przygotowuje, mod Hearthstone Access też już został zaktualizowany, została też zaktualizowana wersja z wsparciem dla ustawek w duetach, cały czas to są dwie osobne wersje,
No jeśli chodzi o te ustawki w debatach, to możemy też podglądać co, jeśli nasz kolega z drużyny może wybrać jakąś opcję spośród trzech z jakiegoś powodu, na przykład jeśli sobie coś potroił i wybiera, no to my teraz możemy podejrzeć jakie on ma opcje.
To było coś co osoby widzące mogły robić wcześniej, my nie, ale teraz to też już zostało zaktualizowane i też jesteśmy w stanie sobie to sprawdzać.
więc myślę, że jak najbardziej zmiana na plus.
Następnie Forza i tutaj tradycyjnie mamy kolejną dużą aktualizację, aktualizacja 10.0,
w której to została dodana kolejna seria wyścigów,
tym razem wielkie rywalizacje, czyli tutaj nie wiem, rywalizacje typu Ford kontra Ferrari i tak dalej.
Tutaj mamy wyścigi, których motywem głównym właśnie są takie największe rywalizacje w historii motoryzacji i na tym inspirowane te wyścigi są.
Jak zwykle będziemy dostawać też różne samochody za ukończenie tych wyścigów i została dodana jeszcze jedna ciekawa opcja, no na razie to jest opcja dla osób widzących, ciekawe czy my też coś takiego za jakiś czas dostaniemy.
Mam nadzieję, że tak, bo bym się bardzo ucieszył, a mianowicie
osoby widzące dostały radar kolizyjny, który pozwala im po prostu zobaczyć,
jeśli jaki samochód jest bezpośrednio przed, czy za nimi, czy na przykład
nawet z boku, w miejscu, gdzie kogoś może nie widać, na przykład ktoś
korzysta z kamery z kokpitu, że obraz jest przed przednią szybę, ale ktoś
podjeżdża go z tyłu i ktoś akurat nie rozgląda się na lusterka, to gdzieś
w centralnym, w centralnym polu widzenia gdzieś taki radar się pojawia, który oszczeka, że zaraz może
ktoś w tą osobę po prostu wjechać.
No my też takich komunikatów dźwiękowych na, które by nam pomogły uniknąć kolizji nie mamy.
Mamy opcję, żeby kolizję wyłączyć, jak wspominałem w podcaście, ale mam nadzieję, że za jakiś czas też
jakichś dźwięków dostaniemy, które by nam mówiły po prostu, czy ewentualnie nie jedziemy za szybko, żeby w kogoś nie wjechać,
albo ewentualnie próbować kogoś po prostu wyprzedzić, no bo wtedy moglibyśmy grać jeszcze bardziej realistycznie, ale też to by nam zwłaszcza pomogło w przypadku gry wieloosobowej,
gdzie tych kolizji, no chyba, że gramy ze znajomymi, wyłączyć się po prostu nie da, więc miejmy nadzieję, że, no zaczęło się od osób widzących, ale może my też za jakiś czas coś podobnego dostaniemy, no pożyjemy, zobaczymy.
I jeszcze jedna aktualizacja, mianowicie gry Dawncaster, to jest fantastyczna gra karciana na platformę mobilna zarówno iOS-a i Androida.
Jeśli podobała Wam się Slay the Spire na przykład, no to Dawncaster Wam się też spodoba.
To chyba gdzieś z ostatnich kilku miesięcy gra mobilna, w której poświęciłem najwięcej czasu,
Między innymi dlatego, że EA deweloperzy cały czas dbają o dostępność, pojawiły się kolejne poprawki.
Mowa w niektórych miejscach była ucinana za szybko, to już zostało poprawione.
Ale przy okazji zostało zrobione coś jeszcze, o co bardzo dużo osób prosiło, a mianowicie wszystkie portrety postaci,
którymi możemy np. grać, bo m.in. w grze możemy dodatkowe portrety sobie odblokowywać naszego awatara.
One wcześniej po prostu były czytane jako portret, nie wiedzieliśmy jak te postacie wyglądają,
a teraz doczekały się bardzo takich szczegółowych, barwnych opisów alternatywnych.
Także myślę, że gra już ma bardzo taki fajny klimat dzięki świetnej muzyce i fabule.
no to jeszcze dodatkowo teraz mamy, jesteśmy w stanie usłyszeć jak wyglądają różne postacie, z którymi możemy grać.
Także fajnie, że cały czas swoi deweloperzy o tą dostępność dbają.
Warto sobie tą grę zaktualizować jeśli jeszcze tego nie zrobiliście.
No i to wszystko jeśli chodzi o gry.
To zdecydowanie nie wszystko natomiast jeżeli chodzi o wypowiedzi od naszych słuchaczy, bo w kolejce mamy kolejny telefon.
Kogo witamy po drugiej stronie?
Witam serdecznie, z tej strony Bartek, mam nadzieję, że w miarę dobrze mnie słychać.
Tak, słychać Cię dobrze.
No to z tego powodu bardzo się cieszę, bo muszę Was dość zaskoczyć.
Dzwonię niestety ze starej Nokii, bo mój iPhone niestety jest w naprawie.
Cóż się stało tym razem?
Mam powiedzieć tak szczerze, to przestał działać klawisz do ściszania,
czyli ściszanie było niemożliwe tylko z poziomu centrum sterowania.
Ale to można powiedzieć, że tak po cichu wam powiem,
że troszeczkę może trochę mojej winy w tym było,
ale miejmy nadzieję, że serwisanci tego nie słyszeli.
I w ogóle a propos, jeżeli chodzi o Apple’a,
bo dzwonię do was z pytaniem a propos aplikacji Color
i tego, co mówiliście, ale to zaraz do tego przejdę.
Jeżeli chodzi o Apple’a, czy wy może orientujecie się,
czy jest możliwość w ogóle wypożyczenia takiego sprzętu,
bo ja u siebie w Bydgoszczy nawet dzwoniłem do iDreama,
byłem w kilku punktach, czy taką usługę oferują
i ja w ogóle z takim czymś się, że tak powiem,
nie spotkałem, nie mieli takiej możliwości,
mówili, że nie świadczą takich usług.
Czy wy w ogóle znacie takie miejsca w ogóle w Polsce?
Ale chodzi ci o wypożyczenie po prostu sprzętu zastępczego,
czy bardziej chodzi ci…
Chodzi o sprzęt zastępczy, żeby po prostu, tak jak w moim przypadku, oddałem na gwarancję i no niestety prywatnego zastępczego jakiegoś nie mam, tak, żeby jakoś pobrać ten sprzęt, oczywiście odpłatnie, to nie masz tutaj nic, że tak powiem, do gadania, ale czy w ogóle jest taka możliwość?
Bo jakby usługa wypożyczenia telefonu na zasadzie takiej, że po prostu uiszczasz jakąś tam stałą, miesięczną opłatę za niego, to jest coś, co ileś firm w Polsce oferuje.
Teraz nie podam jakichś konkretnych nazw, natomiast nie jest to rzecz nowa, ale raczej nie o to pytasz.
Ja myślę, że można by było spróbować skontaktować się bezpośrednio z Apple’em i być może jeżeli ta naprawa byłaby procesowana bezpośrednio przez Apple’a, nawet w ramach ich…
Właśnie Michale, tutaj niestety gwarancja obejmuje, teraz na którą dałem, oddałem sprzęty z gwarancją Reicoini, więc już nie przez Apple’a tylko przez sprzedawcę, u którego nabywałem sprzęt.
No to w takim przypadku, to Bartku w takim przypadku obawiam się, że niestety nie.
Nie, być może, bo gdzieś coś nawet ostatnio czytałem po prostu na stronie Apple’a, że coś takiego, przynajmniej z jakichś tam informacji, które pojawiają się na ich stronie, to wnioskuję, że oferują.
Natomiast sam nigdy z tego nie korzystałem. Być może gdyby cała, jakby cała ta naprawa, cały ten proces był procesowany przez nich, to może dałoby się to zrobić.
Natomiast jeżeli to jest operator, tak jak mówisz, no to jedyną opcją byłoby, no nie wiem, wypożyczenie po prostu jakiegoś urządzenia z innej firmy.
Pytanie, czy w ogóle ktoś na przykład na miesiąc, czy komuś opłacałoby się podpisywać z tobą umowę.
Ja się obawiam, że to są raczej umowy, które podpisuje się na dłuższy okres czasu. W takich przypadkach.
No i jest bardzo możliwe, że jutro już jakiś sprzęt zastępczy się znajdzie.
Jest bardzo duże prawdopodobieństwo, chociaż powiem wam, że wczoraj dostałem
zastępczego iPhone’a, to był iPhone 4S, z tym, że był problem z konfiguracją,
bo okazało się, że prawdopodobnie nie był wyczyszczony, bo po odpaleniu wołał
kod, który był napisany prawdopodobnie ręcznie na kartonie i po wpisaniu tego
telefon się blokował i był komunikat osoba widząca mi to
przeczytała, że spróbuj za 5 minut za drugim razem spróbuj
za 15 minut a za trzecim razem spróbuj za godzinę No to jak
już pojawił się ten komunikat spróbuj za godzinę to
powiedziałem nie nie ja sobie już odpuszczam więc
prawdopodobnie podejrzewam, że ten sprzęt, zły, raz, że
kot był zły a dwa, że prawdopodobnie nawet, on
On posiadł pewnie już skonfigurowane konto Apple ID, więc…
Tak, ale Bartku, no to iPhone 4S to w ogóle nie byłoby przecież nawet opcji, żebyś sobie przywrócił na niego backup.
Tak, backup to wiem, bo przy ostatniej gwarancji udało mi się zdobyć iPhona SE pierwszej generacji i też była ta sama sytuacja,
więc musiałem postawić czyste konto Apple ID i wtedy najważniejsze aplikacje po prostu pobierać na nowo.
A no więc właśnie.
No ale miejmy nadzieję, że ten jutrzejszy dzień będzie dla mnie szczęśliwszy i bo powiedzmy, że już mam dogadane, że sprzęt prawdopodobnie będzie załatwiony.
Ale dobrze jak mówię tutaj dzwonię w sprawie tej aplikacji Koleo i o czym dzisiaj mówiliście o tym że można sobie wybierać te miejsca ja słuchałem tego momentu kiedy Pawle to prezentowałeś i moje pytanie jest takie czy wchodziłeś w te opcje kierunek jazdy czy to w ogóle że tak powiem do tego można się dostać i nam jakoś to pokazuje?
Nie?
Nie, to jest chyba tylko takie SEO, nie da się w to dwa razy kliknąć z tego co widzę.
Z tego co testowałem tak pobieżnie.
To co można tak wstępnie powiedzieć, tak naprawdę to nawet nie mamy możliwości my jako niewidomy wyboru tego kierunku jazdy.
Na to by wyglądało na chwilę obecną.
No tak.
Bo właśnie ta informacja mnie troszeczkę zaintrygowała, że coś takiego jest, tylko pytanie czemu ma to służyć.
No bo na schemacie tak naprawdę ten kierunek jazdy zawsze mamy, ale to jest informacja graficzna.
Nie, nie, nie. To nie jest dla nas dostępne, więc tu obawiam się, że na razie jeszcze tego nie dopilnowano.
Inna sprawa, że dla nas, jako dla niewidomych, to też nie ma to oznaczenia.
Może są osoby, które nie mogą tyłem jeździć, chociażby właśnie i dla nich to znaczenie ma ogromne.
Ale w przypadku osób niewidomych też?
Znaczy się, no zdarzają się osoby, nawet może kilka, które po prostu, powiem wprost, nie lubią jeździć tyłem.
Dla mnie to większego znaczenia nie ma, chociaż wiadomo, że przodem zawsze się lepiej jeździ,
ale ja to akurat jestem neutralny, ale są osoby, które znacznie wolą tylko i wyłącznie przodem.
Ja wiem, że dla osób widzących ma to znaczenie i to jest też ta kwestia, o której wspominałem, że okej, dla nas, jeżeli jedziemy sami, to nie ma problemu, tak, ale no tu jeszcze jest parę takich mankamentów, które są jednak, jeżeli wybieramy bilet dla siebie i dla kogoś jeszcze.
Ok, to może jeszcze zostanie naprawione, ale jeszcze tylko dopytam, jeżeli już zaznaczymy to miejsce, to on nam z tego okna wyjdzie, czy musimy jeszcze jakimś przyciskiem zatwierdzić?
Tam zdaje się, że jest przycisk zapisz.
I to pewnie jest gdzieś na samej górze, tak? Rozumiem.
Jest zachowaj, u dołu po prawej.
A, czyli to gdzieś będzie przed kartami, tak, jak mamy te, te, te, yyy, czy, yyy, wyszukaj połączenie, tam ten przycisk jest i tam chyba pewnie będzie gdzieś właśnie zatwierdź, zapisz.
Tak, tak. Właśnie teraz patrzę i ten kierunek gwiazdy się tylko zaznacza, odznacza, tu nie da się nic.
A pod spodem nic nie ma? Bo tam, yyy, jak prezentowałeś, było coś chyba pustego, tak, i może właśnie…
To też się tylko zaznacza.
Aha, czyli nic się nie rozwija jakby.
Nie, nie, nie, no nie wygląda na to.
Aha, no możliwe, że to też może to jest dopiero pierwsza aktualizacja, może będę to jakoś udoskonalać.
Chyba, że jeszcze taka mi przyszła myśl teraz, bo nie próbowałem zaznaczać tego kierunku jazdy,
a może gdy mamy zaznaczony ten kierunek jazdy, to nam się pokazują inne miejsca niż gdy on jest odznaczony.
No właśnie, na to pytanie chciałem odpowiedzieć.
Ja właśnie jutro jak tego Iphona dostanę i skonfiguruję wszystko, sam chętnie się z tym zapoznam i może na przyszły tydzień coś tutaj wam spróbuję, że tak powiem, nagrać.
Bo tak naprawdę, bo ty Pawle, tylko wybrałeś najbliższe takie połączenie, dlatego pewnie był tylko jeden nagłówek, jeżeli chodzi o wagony.
Nie Bartku, to jest kwestia dostępności, te pociągi są po prostu bardzo, ale to bardzo pozajmowane.
Znaczy się tak, ale Paweł wybrał datę jutrzejszą, więc to akurat jest oczywiste, że prawie 100% miejsc będzie zajętych.
Jeżeli by na przykład wybrał datę za miesiąc, no to tych wagonów na pewno byłoby więcej, tak?
No tak, tak, to się zgadza.
No właśnie, tutaj do tego jakby uderzą. No dobrze, to ja słucham dalej i miejmy nadzieję, że za tydzień już będziemy się lepiej słyszeć wtedy.
Pozdrawiam serdecznie i do usłyszenia.
Dzięki Bartku za telefon, pozdrawiamy Cię i dobrej nocy życzymy.
To teraz, skoro już mamy naszych słuchaczy na antenie, to posłuchajmy co do powiedzenia ma Michał.
Michał Kasperczak, dobry wieczór. Kilka słów o nowej, a może już nie aż tak, nowej wersji wtyczki do NVDA Radio Center,
która jest takim lokalnym z poziomu NVDA odtwarzaczem stacji radiowych.
Być może to gdzieś w drobnych newsach było na temat tego, co nowa wersja wtyczki wniosła,
ale wydaje mi się, że nie, a że dzisiaj to odkryłem, to dzielę się informacjami.
Teraz wtyczka, prócz odtwarzania stacji radiowych, pozwala na ich nagrywanie,
tzn. na nagrywanie jednej stacji radiowej i równolegle możliwość słuchania i przełączania
się na inną stację radiową. Z tym, że działa to dziwnie, ja nie potrafię
w pełni wiarygodnie odnieść się i powiedzieć, na ile to działa,
bo testowałem to jakieś dwie godziny temu kilka razy i nie byłem zadowolony.
To znaczy wybrałem jako instację radiową i włączyłem nagrywanie,
przełączyłem się na inną stację i miałem potem problem zarówno z poziomu tej innej
stacji, jak i po powrocie do stacji, na której nagrywałem,
żeby zatrzymać to nagrywanie. To znaczy, kiedy zatrzymywałem,
to on pytał, jakby po zatrzymaniu dopiero pytał o nazwę pliku,
wybrałem tę nazwę pliku. Wcześniej w ustawieniach wtyczki trzeba
określić folder, gdzie on to zapisuje. No i nic, żadne pliki mi się nie zapisały,
tak, nie wiem, co jest grane.
Trudno mi powiedzieć, będę testował dalej, ale coś jest jakby nie tak ewidentnie.
I też w ogóle ta wtyczka, moim zdaniem, ma pewne problemy z przełączaniem,
jak szybko się przełącza stację radiowe, to ona się lubi zawiesić szybko.
No tak, szybko, raz, raz, raz i nie ma odtwarzania. I ona, znaczy ona nie jest stabilna.
Fakt, że jeżeli jakąś jedną stację wybierzemy, potem ją zatrzymamy, wyciszymy albo zrobimy
właśnie pauzę, to bez problemu ona się odtwarza. I to, jeżeli na tym nam zależy,
no to właściwie na takie szybkie odtworzenie, czego chcieć więcej. Jak się ma sprawa
nagrywania na teraz, nie wiem. Sprawdzę, to będę jeszcze analizował. Też od razu uczulam,
że nie ma skrótu klawiszowego globalnego do nagrywania. O ile jest Alt, N, V, D, A, R,
to jest takie główne okno wtyczki, Alt, N, V, D, A, M to jest jak miód, wyciszanie,
strzałki góra-dół, głośniej i ciszej, lewo-prawo, następna poprzednia stacja,
wszystko z Alt, N, V, D, A. Alt, N, V, D, O, nie I, tylko chyba O,
informacja o stacji radiowej.
I w zasadzie to jest tyle. Nie ma niestety klawisza, sprawdzałem w zdarzeniach wejścia
i nie można dla tej wtyczki, nie ma przewidzianego klawisza do włączenia,
zastopowania i pauzowania nagrywania. A powiem szczerze, szkoda.
W ogóle dziwny ten skrót Alt, Shift, R, to R to mogłoby być recording,
a tutaj właśnie, aha, no R jak radio, radio center, dobra, no powiedzmy,
że może to być. No także tyle, tyle wrażeń. Ogólnie pomysł mi się podoba.
i to takie radiowe kilka fajnych rzeczy, tak, bo nie dość, że no wcześniej nam działało
może nie tak do końca stabilnie, bo to QT, to tap-in radio. Mieliśmy teraz,
czy mamy właściwie cały czas to, ten program Station, ten mini program świetny,
odkrycie dla mnie, prawie że aplikacja roku. No to teraz jeszcze nam dochodzi wtyczka do NVDA,
a która tak działa właśnie chyba różnie, ale dobrze, że jest tak czy inaczej i wierzę, że będzie się rozwijała,
bo od tych kilku tygodni już ileś wersji, podwersji się pojawiło tej wtyczki.
No nic, to z mojej strony wszystko. Pozdrawiam.
Dzięki Michale za tę wiadomość. No i cóż, mamy jeszcze wiadomości od Maćka.
To znów ja. Postaram się teraz dwie rzeczy skumulować w jednej wiadomości.
Pierwsza rzecz do Ciebie, Magdo, jeśli chodzi o zegarek odblokowywania iPhone’a za pomocą zegarka.
iPhone’a oczywiście z Face ID.
Ja napisałem na dostępnym Apple’u, że działa o tyle obłędnie, na tyle obłędnie funkcja, że nie jestem w stanie zweryfikować.
Natomiast raz byłem w stanie zweryfikować, a i owszem.
Tylko kwestia też chodzi, jest o to, jest taka, a żeby sobie tą funkcję, ten konkretny zegarek włączyć, jak będzie długo w toku, wyłączyć i jeszcze raz włączyć i tak próbować do skutku, no ponieważ to czasem gdzieś tam lubi zawieść, no i nie do końca tam się zsynchronizować.
Natomiast jeżeli to już się uda, ten konkretny przełącznik przy konkretnym Apple Watchu będzie włączony i nie będzie tam żadnego wtoku i tak dalej, to znaczy, że już powinno działać i nie, nie trzeba do tego maseczki używać, chociaż być może jest wskazane, nie wiem na ile pomaga włączenie opcji odblokowywania z maseczką stricte w ustawieniach Face ID,
inna. Niemniej jednak, no, ja to mam w sumie włączone tak, no, żeby, żeby po prostu.
Nieraz w zimie się chodzi w jakichś kominiarkach czy coś, no to to gdzieś tam pomaga.
Natomiast stricte zakładanie maseczki na twarz nie jest, nie jest wymagane.
Mnie się dzisiaj na ten przykład udało właśnie w ten sposób odblokować przy pomocy zegarka.
Tam raz nie mógł, nie mógł mi tej twarzy rozpoznać, co się niesamowicie rzadko zdarza,
Ale jednak, w każdym razie, ładnie mi to w tym momencie zegarek sprostał temu zadaniu.
Wczoraj, gdy to tam próbowałem testować i to się nie do końca włączyło,
no to było niepowodzenie, niestety watch tutaj nie śmiał nawet zareagować,
więc coś było na rzecz, ale wyłączyć, włączyć kilka razy te funkcje powinno być,
mam nadzieję, powinno pomóc.
No, u mnie się sprawdziło, więc miejmy nadzieję, że i u Ciebie się sprawdzi.
Jeśli natomiast chodzi o oddział Apple w Polsce,
który poniekąd jest, a i owszem,
natomiast nie do końca wiem, znaczy inaczej.
Jedną z rzeczy, o której wiem, co robi,
to szkoli serwisantów, że to, powiedzmy, tam też…
Szkolenia online to szkolenia online
i to są swoją drogą gdzieś tam materiały, instruktarze,
ale też się między innymi pojawiają,
Jest też możliwość szkoleń stacjonarnych i tam, żeby się serwisanci z poszczególnymi sprzętami na żywo gdzieś tam zapoznawali, zwłaszcza jak są jakieś premiery i tak dalej,
no to autoryzowane serwisy, zwłaszcza ci cieszący się większym uznaniem, no żeby mogli sobie po prostu tam w tej siedziby posprawdzać to wszystko, nauczyć się też obsługi tych sprzętów.
Poniekąd jeśli chodzi o certyfikację swoją, jako techników, czy to o awans, czy to o aktualizację wiedzy,
stricte o rozwój, no to też tam tego można dokonywać, więc no to jest jeden z aspektów działalności
takowego oddziału Apple w Polsce.
I chyba tyle.
Tak, na razie dziękuję za uwagę.
Pozdrawiam.
Natomiast jeśli chodzi o te wypożyczanie iPhone’ów jako sprzętu zastępczego czy w ogóle innych urządzeń Apple, to taki troszkę moim zdaniem temat śliski, nie do końca zbadany rzeczywiście.
Bo ja się spotkałem, że niby z iSpot coś takiego oferuje, natomiast że tam na stronie mają, że niby można. Jakiś cennik jest, ale szczerze mówiąc nie wiem jak to wygląda.
natomiast jeśli chodzi o IMAT, bo niby też oferują, ale w jednym z podcastów wybrzmiało to poniekąd tak jakby to było dla klientów biznesowych,
więc ja nie wiem czy ta usługa w ogóle stricte wypożyczania sprzętów Apple na czas naprawy sprzętów zastępczych,
Czy to nie odnosi się stricte do segmentu biznesu, bo z drugiej strony wiecie, firmy i tak dalej, które gdzieś tam potrzebują mieć non stop sprzęt, gdzie jeden na wali, potrzebują mieć drugi i tak dalej, no i za opłatą jest im wypożyczany, to by miało, powiedzmy, jakiś sens i logikę.
Znaczy, ja nie twierdzę, żeby nie było, że dla użytkowników indywidualnych nie ma to żadnego sensu.
Natomiast no, obawiam się, że dla tych firm po prostu, dla sektoru biznesowego może to być oferowane,
natomiast dla nas zwykłych se-użytkowniczków niestety już troszeczkę może być z tym gorzej.
Trzeba by było zgłębić temat, zadzwonić sobie właśnie czy do iSpotu, czy do iMadu i tam się też ich zapytać,
czy oni, aby nie oferują takich usług dla klientów indywidualnych i właśnie Bartku jakbyś potwierdził,
czy dla klientów biznesowych stricte też, czy nie, w sumie jak miałem potrzebę skorzystania z czegoś takiego,
to w sumie tego nie zrobiłem, że teraz nie mam potrzeby, no to też tego jakby nie wypraktykuję ogólnie,
ale no ty tutaj jesteś też głównie i głównie zainteresowany w tym momencie w sprawie,
Więc, no, w sumie fajnie jakbyś zgłębił temat i się tym podzielił i co, jakie odpowiedzi od serwisów uzyskałeś pod tym, jeśli chodzi o ten temat.
iDream mówisz, że jest jak jest, natomiast jeszcze iSpot właśnie, iMat, który niby to powinien mieć, no, a jak to wygląda, to tak, mówię, nie wiem.
A no, przycisk, weźmy przycisk.
Dzięki Maćku za te wiadomości.
A teraz, zanim zamkniemy nasz kącik tyfloaktualności, to jeszcze taki podkącik, że tak powiem, bo będzie kącik retro.
Tak, bo znalazłem takie kilka informacji, które wydaje mi się są bardzo ciekawe, bo tutaj co jakiś czas zgłębiamy takie tematy nostalgiczne,
albo nawet może nie tyle nostalgiczne w tym przypadku.
Bo tutaj w ogóle mówimy chyba bardziej o historii sprzętu czy obsługi sprzętu przez osoby niewidome na przykład.
No i tutaj takie trzy, wydaje mi się, ciekawe wiadomości udało mi się znaleźć.
Po pierwsze dowiedziałem się o kolejnym magazynie, który mówił o sprzęcie,
czy właściwie o komputerach, jak używa się komputerów jako osoby niewidome.
Co ciekawe, ten magazyn, to gdzieś kolejny magazyn, który był dostarczany na kasetach.
Mieliśmy na przykład playback magazyn w Stanach, to akurat z komputerami związane nie było.
Natomiast okazuje się, że w Wielkiej Brytanii, bo w latach 80. często użytkownicy komputerów
włączyli się w takie grupy, tak zwane grupy użytkowników i tak m.in. w Anglii była grupa niewidomych i nienawidzących użytkowników komputerów.
Głównie tutaj były np. chyba komputery BBC, BBC Micro, bo na niej wtedy gdzieś powstawała też firma Dolphin i wypuścili swoje pierwsze czytniki ekranu i sprzętowe syntezatory.
No i taki magazyn właśnie tej grupy powstawał.
Magazyn nazywał się Computer Talk i działał bardzo długo, bo od roku 1985 do roku 1989 prowadził go jego pierwszy założyciel
i później od roku 1989 został przejęty przez dwie kolejne osoby, które go prowadziły aż do roku 2009, więc to już kawał historii.
Nie mamy wszystkich tych zapisów, natomiast autor portalu oneswitch.org czy co.uk, a nawet jeszcze inaczej oneswitch.org.uk
oczywiście będzie link do konkretnej strony gdzie znajdziemy ten artykuł.
Udało mu się znaleźć zapisy całkiem sporego kawałka tego magazynu.
Znajdziemy tam wydania z roku 89, kończąc na wydaniach w roku 94.
Też prosi o to, jeśli ktoś ma jakieś starsze lub nowsze, żeby się z nim skontaktować, żeby to jeszcze uzupełnić.
Natomiast mimo wszystko to, co mamy jest jak najbardziej fascynujące.
Mamy na stronie m.in. taką sekcję notes z notatkami, w której możemy sobie poczytać, co w takich wydaniach się znajdziemy, w tych, które mamy dostępne.
I tak np. w pierwszych wydaniach z czasów, kiedy jeszcze te komputery BBC Micro były gdzieś używane,
no to możemy znaleźć np. recenzję, kiedy pomału pojawiała się pierwsza wersja syntezatora Apollo,
właśnie głównie na początku przystosowana pod te komputery.
Pojawiła się np. recenzja notatnika Bregowskiego Eureka A4,
o której jakiś czas temu Paweł wspominał, notatnika, który m.in. zasłynął tym, że miał bardzo rozbudowany program do komponowania muzyki i Stevie Wonder np. z Eureki korzystał, taka ciekawostka.
W późniejszym magazynie, tutaj wracamy znów do Eureki, mamy demonstrację, jak jeden z właśnie użytkowników tego notatnika przez modem łączył się z usługą oferowaną przez BT, czyli British Telecom,
głównego operatora w tamtych czasach do odbierania poczty elektronicznej i nie tylko, tam też są inne usługi i to było demonstrowane.
Jest demonstrowane, na przykład to już jest rok 91, porządek roku 91. Program, zmodyfikowana wersja programu rozpoznawania mowy, która też działa z czynnikami ekranu pod DOS-a.
No słuchajcie, jeśli narzekacie teraz, jak wyglądało dyktowanie, to wyobraźcie sobie, że na DOSie to wyglądało tak, że dyktowaliśmy po słowie.
No to mniej więcej z takimi opóźnieniami. To zajmowało dużo więcej czasu, natomiast faktycznie, jeśli były osoby, które tego potrzebowały,
no to takie rozwiązania istniały, to nawet dały je się zintegrować z przynajmniej jednym czytnikiem ekranu pod DOS-em.
I to też jest demonstrowane na tej kasecie, także jeśli interesuje Was rozwój technologii dostępnej dla nas,
no to pewnie kolejna rzecz, w której można spędzić godzinę po prostu słuchając jak to było kiedyś.
Także gorąco polecam sobie wejść i posłuchać, a gdybyście chcieli coś przetestować sami, no na razie jeszcze nie można, ale za jakiś czas taka możliwość się pojawi, mianowicie emulator MAME, o którym pewnie słyszeliście, zwłaszcza jeśli interesują Was gry, konkretnie automatę, bo to była aplikacja, która, jego głównym założeniem jest emulowanie wszystkich możliwych automatów do gier na ziemi, natomiast ona też
rozwijała się do emulowania nie tylko automatów, ale też różnych komputerów i zresztą urządzeń.
Bo tam na przykład, to jest jedyny emulator, który na przykład emuluje komputer Apple II z syntezatorem Echo,
więc tutaj wczesna historia mówiących komputerów z Stanach Zjednoczonych, to też powstały pakiety, które nam pozwalają to emulować.
Też różne gry kieszonkowe i inne maszyny są emulowane, łącznie z pecetami i różnymi peryferiami do tych pecetów.
Takim peryferiem, jednym z ciekawszych jest na przykład syntezator mowy Dektok.
Dektoka możecie znać teraz bardziej z wersji programowej, które gdzieś do dziś krążą z różnymi czytnikami ekranu.
Natomiast on miał swoje początki jako sprzęt po prostu.
Na początku takie duże urządzenie, które gdzieś podłączało się do jakiegoś innego komputera przez port,
odszeregować np. do linii telefonicznych, żeby komuś przez telefon odczytywał
wiadomości, pogodę czy tam co było akurat potrzebne.
Natomiast z czasem ten decktock się zmniejszał
aż do momentu kiedy był też dostępny w wersji na karcie, którą można było sobie do
takiego standardowego peceta włożyć i np.
skonfigurować z czytnikiem ekranu pod DOSem i tak wiele osób w Stanach Zjednoczonych
właśnie z komputerów korzystało używając tego sprzętowego dektoka.
Od jakiegoś czasu MAME potrafi go emulować, natomiast ta emulacja, no można powiedzieć, że
praktycznie nie działała, bo ta mowa co chwila trzeszczała, piszczała, była
zniekształcona, nie dało się z tego korzystać.
Tematem zainteresował się niejaki Jake Grose, którego możecie kojarzyć, bo to osoba,
która jest bardzo zainteresowana technologiami retro i udało mu się wiele rzeczy przywrócić do
napisał wiele np. dodatków MVDA, które uruchamiają jakieś stare syntezatory i nie tylko, prowadzi taki repozytorium wiedzy z tym związanej, m.in. właśnie z Dektokiem zwłaszcza.
No i znalazł ten problem w kodzie, który powodował, że ta mowa tak trzeszczała i go naprawił i jego poprawki zresztą już zostały wcielone do przynajmniej kodu źródłowego MAME’a.
Będzie też link zresztą w komentarzu do klipu na YouTubie, gdzie możemy usłyszeć jak taki komputer, taki pecet startuje, łącznie z nawet symulowanymi dźwiękami stacji dysków, co też w ogóle bardzo, bardzo ciekawe.
No ale słuchajcie, że normalnie uruchamia się program demonstracyjny i ten decktalk się do nas odzywa i kiedy pojawi się następna wersja MAME’a, to ten decktalk już nam powinien w niej działać bardzo fajnie
I Jake już obiecał, że postara się stworzyć taki pakiet, który pozwoli nam uruchomić sobie taką maszynę, na której będzie zainstalowany jakiś DOS, czytnik ekranu i będzie można sobie po prostu z tego pogorzystać jakieś gry, inne aplikacje, uruchomić, zobaczyć czego ludzie korzystali w Stanach.
No w Polsce oczywiście też DOS był popularny na innym sprzęcie akurat, na kartie kowach tak zwanej na przykład był używany.
No a w Stanach właśnie były takie syntezatory i będziemy nierówno mieli możliwość zobaczyć jak to wszystko, jak to kiedyś działało.
I jeszcze a propos emulacji różnych rzeczy, wracamy do tematu na co Apple ostatnio zaczęło pozwalać na iPhone’ach,
bo oto zostały do sklepu, do AppStore’a i nie tylko dopuszczone emulatory.
Cody pojawiły się w przypadku programów, które symulują komputery,
bo oto twórcy programu UTM, którego możecie pamiętać,
no bo on już jakiś czas na Macu jest i na iOSie zresztą też,
natomiast on na początku działał gdzieś z iOSami po tak zwanym jailbreak’u,
więc aplikacje, które gdzieś były instalowane przez użytkowników.
no to program, który pozwala nam generalnie odpalać wirtualne maszyny
różnych systemów operacyjnych, od właśnie DOS-a czy starych Windowsów
po nawet Windowsa 10 czy 11, co zresztą na Macu można zrobić bez problemu.
Na Macu ta aplikacja stanowi konkurencję dla Parallelsa czy VMware-a.
Nie integruje się tak z systemem, ale można spokojnie takie rzeczy też uruchamiać.
Natomiast Apple na początku nie chciało dopuścić tego, uznawało, że
Ok, to jest emulator, macie rację, ale za nowy sprzęt, czego nikt do końca nie rozumiał.
Natomiast ostatecznie postanowili zmienić stanie i UTM, przynajmniej w wersji okrojonej, w wersji ESE, na App Store się pojawił.
O co mi chodzi, kiedy mówię okrojonej?
Po prostu te symulowane komputery nie działają tak szybko, jak by mogły.
jest to związane z zabezpieczeniami, na Macu ta aplikacja ma bezpośredni dostęp do procesora i może go w pełni wykorzystać, żeby symulować te sprzęty, używając wszystkich dostępnych rdzeni, używając takiej zwanej technologii JIT, na przykład, czy hiperwizorów, gdzie wirtualna maszyna ma właśnie bezpośredni dostęp do procesora.
No na iOSie z powodu bezpieczeństwa nawet po tych zmianach aplikacje do tego dostępu nie mają, co za tym idzie ta emulacja jest wolniejsza, o ile no Windowsa 10 albo 11 na pewno na iPhone nie uruchomimy, natomiast starsze wersje systemu Windows na przykład, Windows XP chyba nawet się udało uruchomić też i to nawet chyba działało, starsze wersje, nie wiem 9, 8 już działały na pewno, także jakby ktoś chciał sobie, sama aplikacja jest jak najbardziej dla nas dostępna,
Więc jakby ktoś chciał sobie takiego Windowsa postawić, jakiś czytnik ekranu, nie wiem, podpiąć klawiaturę i jakieś gry audio odpalić, myślę, że jak najbardziej powinno się to dać zrobić.
Może faktycznie nawet Windows XP też powinien na tym się uruchomić.
No aplikacja darmowa, potrzebujemy trochę miejsca na telefonie, bo sama aplikacja ma 2 giga plus się wiadomo jeszcze obraz dysku i tak dalej, więc no trochę miejsca musimy sobie na to zwolnić.
Natomiast jakby ktoś chciał pobawić się w uruchomienie Windowsa na swoim iPhone, przynajmniej starszego Windowsa, będzie link do App Store’a UTMSE, tak się ta aplikacja nazywa, można sobie ściągnąć i testować.
No to za moment przechodzimy w takim razie do Tyflo Aktualności, nie do Technicaliów, a z Tyflo Aktualności do tych Technicaliów będziemy przechodzić.
Zanim jednak to, to wiadomości od kolejnego naszego słuchacza, Sylwestra.
Mam pytanie obecnego Bartosza, który dzwonił, czy on nie ma zapasowego iPhone’a przypadkiem w domu?
Czy ktoś jego członków rodziny nie ma iPhone’a?
Bo ciągle jakiś on ma problem z tym iPhone’em.
Trzeba myśleć o zapasowym sprzęcie iPhone’owskim czy Apple’owskim, bo innej drogi nie ma.
A czy będziecie prowadzić kiedyś podcasty na temat retro, takie starsze rzeczy?
I to chyba wszystkie wiadomości od Sylwestra.
Natomiast to nie wszystkie wasze komentarze.
Bo mamy jeszcze kilka komentarzy od naszego słuchacza na YouTubie,
który się podpisuje jako TERLOL i pisze do nas tak
Na Windows można pisać też głosowo, wystarczy, że oznaczymy pole tekstowe tam gdzie chcemy pisać i wciśniemy literkę H plus Windows, wtedy mówimy do mikrofonu i nam to zapisuje, a to prawda na Windowsie 11 to działa, rzeczywiście można z tego korzystać.
Kolejny komentarz. Jak chcemy już zakończyć pisanie głosowe, wystarczy, że wciśniemy klawisz kontrol.
Następna wypowiedź. Pozdrawiam was serdecznie z okolic upalnego Opola. Serdecznie pozdrawiam i zachęcam do korzystania z basenów.
Ja mam fajnie, bo przed domem trzymajcie się zdrowo i wesoło. No to na takie upały to pozazdrościć tylko.
I co tu jeszcze nam Terlol pisze?
Ano pisze nam, że korzysta na Windows ze sztucznej inteligencji,
czyli z Binga na komputerze stacjonarnym.
Na Windows to fajnie działa, jak na smartfonie iPhone.
I coś jeszcze? Nie, to jest wszystko.
To w takim razie może przejdziemy sobie teraz tak troszeczkę nietypowo,
Nietypowo, niezgodnie z kolejnością, która w tych naszych notatkach, teraz Pawle, Ciebie do głosu dopuścimy.
Audacity, Audacity, co nowego?
Czy to jest nowe? Nie jestem do końca pewien. Mam wrażenie, że nie poruszyliśmy tego aspektu, to Tomek Bilecki chyba wspominał,
przy pierwszym wspomnieniu o sztucznej inteligencji i wtyczce z tą, że do Audacity.
No bo Audacity się rozwija w różne ciekawe strony, odkąd ma nowych właścicieli grupę Amuse chyba i między innymi też jakaś tu została nawiązana współpraca z Intelem i ich OpenVINO, chyba tak się to czyta, chyba nie OpenVINO, czyli ich modele językowe,
i modele, interfejsy do interakcji z tymi modelami gdzieś tam zostały wprowadzone w formie wtyczki, więc mówiliśmy, że jest usuwanie szumów sztuczną inteligencją, jest odseparowywanie wokalu i ścieżki instrumentalnej sztuczną inteligencją, jest nawet jakieś podstawowe tworzenie muzyki.
Ale jakoś w tym wszystkim mam wrażenie umknęło nam, że jest też Whisper i istotnie instalując tą wtyczkę OpenVINO możemy sobie wybrać jakie modele Whispera chcemy zainstalować, mamy do wyboru Base, Small, Medium, Large i Large w wersji na trzecią, więc możemy sobie w czasie instalacji powybierać co my to wszystko chcemy.
No i teoretycznie, bo u mnie to jakoś działać nie chce, a wykonałem mam wrażenie wszystkie kroki tak jak trzeba i wszystkie wymagania sprzętowe spełniam, w menu analizuj powinna się pojawić opcja transkrypcji.
No i możemy poddać dowolny plik tej transkrypcji, jako parametry analizy wybieramy sobie czy chcemy transkrypcję czy transkrypcję z tłumaczeniem na angielski, możemy też wybrać sobie jaki język jest źródłowy, no i ruszamy do działania.
Po ukończonej transkrypcji możemy wynik taki, że zapisać sobie jako znaczniki, jako tak zwane markery Audacity, jako poetykietowane klipy.
Więc niestety rozstaniemy je chyba tylko w wersji z znacznikami czasu.
No ale jest to kolejny interfejs graficzny do Whispera, gdybyśmy tam czegoś na Windowsa akurat szukali.
No jest bass, chyba o jakimś jeszcze jednym słyszałem, ale go nie testowałem.
Jak ktoś umie i lubi, to jest też oczywiście wiersz poleceń zawsze stary dobry.
No a jak ktoś już jest przyzwyczajony do Audacity, to można też z poziomu Audacity.
No to teraz kolejny temat, tym razem temat związany z dokumentami Google.
Dokumenty Google mają już od pewnego czasu wsparcie dla Markdowna,
dla tego systemu znaczników, ale to wsparcie jeszcze się powiększyło.
Dokładnie, powiększyło się tak dosyć znacząco, bo jak to wyglądało wcześniej,
to wsparcie, to było bardziej, tak mam wrażenie, takie ułatwienie dla ludzi,
którzy znają składnię Markdowna i piszą w tym edytorze dokumentów Google na przykład.
No bo na przykład mogliśmy, nie wiem, napisać dwa znaki hash, spacja i jakiś nagłówek
i po naciśnięciu Entera po prostu automatycznie to, co napisaliśmy, by się przekształciło na główek poziomu drugiego.
Natomiast, no chyba, że ktoś mi tutaj poprawi, nie dało się na przykład wkleić większego jakiegoś akapitu napisanego właśnie w Markdownie
i zrobić tak, żeby coś zostało przekształcone, czy zresztą z drugą strony nie dało się otworzyć dokumentu Google na przykład i go w Markdownie zapisać.
To było w roku 2022, to wsparcie, o którym wspominaliśmy, więc już jakiś czas temu zostało to dane.
Natomiast ludzie prosili, żeby to miało więcej funkcji, no i Google postanowiło się do tych
prośb przychylić i jakie opcje zostały nam dodane.
Są cztery tak naprawdę nowości.
Konwertowanie Markdown do dokumentów Google przy wklejeniu, czyli właśnie to, co
wspominałem, gdybyśmy sobie z jakiegoś innego pliku, który napisaliśmy w innym edytorze,
na przykład mi formatowanie Markdown, kiedy je automatycznie wkleimy, no to ono się
zamieni na odpowiednie formatowanie dokumenta Google, czyli nagłówki, listy, linki nam się
automatycznie potworzą tak jak powinny i możemy pójść w drugą stronę, możemy skopiować
zawartość dokumentów Google jako Markdown i to jest myślę coś, co też ucieszy wiele
osób, no dokumenty Google, nie wszyscy je lubią, zwłaszcza to ja mówię o
użytkownikach niewidomych, na przykład zwłaszcza na Macu, gdzie to działa
trochę gorzej.
No i jeśli jesteśmy przyzwyczajeni do jakiegoś innego edytora tekstu,
no to możemy sobie zaznaczyć taki dokument, wybrać odpowiednią opcję z
menu, żeby zostało ono, to znam skopiowane jako markdown, wkleić sobie
do jakiegoś edytora, z którym lubimy pracować, dokonać zmian, no i z powrotem
wrócić i wkleić je w odpowiednie miejsce.
Z dokumentami Google to jeszcze tak a propos tej dostępności to niestety też są problemy jeżeli chodzi o polskich użytkowników i to akurat polskich użytkowników Windowsa, bo się trochę tych skrótów dedykowanych właśnie przede wszystkim dostępności gryzie z polskimi diakrytykami na klawiaturze programistycznej.
A, no tak. To też prawda i to też może być jakieś rozwiązanie na to,
jeśli chcemy na przykład sobie coś przeczytać po naukówkach, no to można sobie to
przekonwertować po prostu i przeczytać w jakimś innym edytorze na przykład.
Ale nie tylko na schowku możemy pracować, bo
możemy też wyeksportować dowolny dokument do pliku Markdown.
To będzie w menu plik, wchodzimy do menu plik i w podmenu pobierz, tam zawsze mamy
właśnie różne formaty dozewnętrzne, .doc, .odt, .pdf i tak dalej, no i tam też po prostu pojawi się Markdown i vice versa możemy sobie pliki Markdown z menu plik lub po prostu z dysku Google jeśli klikniemy na plik MD i otworzy nam się w dokumentach Google, no to automatycznie to formatowanie zostanie przekonwertowane na no właśnie formatowanie dokumentów Google i możemy sobie z tym plikiem dalej pracować.
Myślę, że zdecydowanie jest zmiany na plus z wielu powodów, zwłaszcza dla nas, trzeba przyznać, że chyba z reguły łatwiej nam się właśnie pracuje na takiej właśnie składni markdown, łatwiej się robi formatowanie.
Jest gdzieś więcej dostępnych aplikacji na różne systemy operacyjne, jeśli musimy na przykład właśnie pracować z osobami widzącymi, które może niekoniecznie chcą w takiej składni pracować,
no to możemy w ten sposób sobie takie dokumenty przygotować, wkleić w odpowiednie miejsce.
No i nam się pracowało na nich lepiej, a osoby widzące też od razu mają lepsze formatowanie.
Także zdecydowanie zmiany na plus.
Google mówi, że one pomału po prostu będą pojawiać się u wszystkich użytkowników,
niezależnie od tego, czy ktoś ma po prostu darmowe osobiste konto Google,
czy korzysta z tych usług workspace firmowych.
To po prostu powinno się w dokumentach wam pokazać.
A teraz radiowa ciekawostka ode mnie. Ja lubię takie minimalistyczne rozwiązania i to jest zdecydowanie coś bardzo minimalistycznego i bardzo fajnego dla tych wszystkich, którzy lubią słuchać stacji radiowych, ale którzy lubią słuchać nowych stacji radiowych, których nie znają, no a jak najlepiej poznać jakieś nowe radio sobie i po prostu wylosować.
I właśnie do tego służy strona, której adres to radioshuffle.com, radio minus shuffle przez dwa f, kropka com.
I działanie tej strony jest niezwykle proste, bo po prostu sobie na nią wchodzimy.
Ja teraz właśnie to robię i zaraz zobaczymy, czy od razu nam tu coś zadziała.
Na razie nam akurat nic nie gra, ale jak nacisnę przycisk shuffle, to proszę bardzo, już nam coś gra.
Gra nam jakaś stacja radiowa i oprócz tego, że nam gra, to mamy też jeszcze opis.
I to jest w ogóle bardzo ciekawe, zastanawiałem się skąd są te opisy.
Mam wrażenie, bo one są takie dosyć podobne do siebie, więc mam wrażenie, że te opisy to sztuczna inteligencja.
Dokładnie, to jest też moja sugestia, ja podejrzewam, że to jest radio browser plus GPT.
Dokładnie. I mamy tu akurat stację z Armenii, że ta stacja właśnie z Armenii się skupia na muzyce chrześcijańskiej i treściach chrześcijańskich, więc tak to sobie brzmi.
Jak nam się podoba, to słuchamy, a jak nam się nie podoba, to klikamy sobie znowu przycisk shuffle i czekamy.
I to nie zawsze działa, bo czasem po prostu jakiś strumień jest nieaktywny, ale w takim przypadku się nie poddajemy, tylko znowu sobie klikamy w shuffle.
No i mamy! Coś zupełnie innego, tym razem radio z Argentyny, z Castellar, Provincia de Buenos Aires i tak dalej, i tak dalej, i tu mamy też informację co to jest za stacja radiowa.
Jeżeli jakieś radio nas zainteresuje, to możemy sobie nacisnąć, i to jest niestety opisane jako element klikalny, więc no szkoda, że nie jest to przycisk.
Po prostu mamy nad tą stacją coś, co się nazywa favorite.
Naciskamy sobie to favorite i powinno nam się już w tym momencie do ulubionych dodać.
To czasem się dodaje, czasem nie, ale tu widzę, że nam się dodało, zresztą zaraz to sprawdzimy.
Wylosuję sobie na przykład jakąś następną stację, niech nam się tu coś wylosuje.
Znowu się nie chce wylosować, ale to się nie poddajemy, tylko szuflujemy dalej.
Jak pech to pech, teraz akurat się nic nie chce wylosować.
O, się wylosowało.
Aha, no to akurat w sam raz coś na upały, bo stacja ze Stanów Zjednoczonych grająca muzykę świąteczną.
Ale teraz powiedzmy podoba mi się ta stacja z Buenos Aires, którą dodałem sobie do ulubionych, więc zobaczymy czy jestem w stanie do niej wrócić.
Jestem w stanie do niej wrócić. I co ważne, te stacje, które są ulubione, które zapisujemy jako ulubione, to zapisywane są w naszej przeglądarce.
Prawdopodobnie jako jakieś ciasteczka, więc z jednej strony jest szansa, że ich nie stracimy tak szybko, ale z drugiej strony jeżeli używamy jakichś cleanerów
albo np. mamy w jakiś nietypowy sposób ustawioną przeglądarkę, żeby usuwała ciasteczka co jakiś czas,
no to można się liczyć, że z tak zgromadzoną bazą stacji radiowych przyjdzie nam się kiedyś pożegnać.
Więc może lepiej to, jeżeli spodoba nam się jakaś stacja, poszukać informacji o niej, wyciągnąć skądś adres internetowy
i dodać sobie do jakiegoś bardziej stałego miejsca, z którego na pewno nam ta stacja nie wyparuje.
Ale stronka bardzo fajna, trochę czasu spędziłem klikając przycisk shuffle, to wam powiem.
Radio-myślnik-schufle.com
Ja też przypomnę, że no to trochę tyflo przeglądów temu było, ale stworzyłem skrót do Apple Skrótów,
który robił też podobną rzecz, fakt, nie można zapisywać do ulubionych i nie jest to takie intuicyjne jak klikanie shuffle, shuffle, shuffle,
ale można sobie na przykład przypisać do polecenia w Siri albo do gestów voiceover i też całkiem fajnie się to sprawdza.
Także fajnie, że nie tylko ja mam takie myśli, że takie coś może być fajne i ta sama motywacja też widzę w imieniu Człowieka Świętego,
bo też się chce wyrwać trochę z tych algorytmów serwisów streamingowych.
Tak, bo autor właśnie o tym pisze, że wracał do domu, na przykład po szkole kiedyś i strasznie go denerwowało, że każda stacja radiowa gra to samo, a przecież jest internet,
więc czemu sobie nie posłuchać jakiegoś radia z innego zakątka świata, gdzie można naprawdę coś nowego, nietypowego, ciekawego poznać.
To prawda, ja też tak lubię, lubię sobie gdzieś tam tym palcem po radiowej mapie poprzesuwać i coś interesującego znaleźć, więc polecamy.
Ciekawe czy ktoś kiedyś trafi na Tyflo Radio.
No właśnie, może. Jeżeli jesteście właśnie stamtąd, na przykład z Radio Szafał, dajcie znać.
Tak, pozdrawiamy serdecznie.
Dobrze, to następny temat w takim razie, Eleven Labs. Eleven Labs to już nie tylko narzędzie do tworzenia bardzo realistycznych, syntetycznych głosów, ale też i ostatnimi czasy narzędzie do generowania efektów dźwiękowych tam się pojawiło, a ostatnimi czasy to dodali odszumiarkę.
Tak, jakby efektów dźwiękowych było za dużo w jakimś nagraniu, no to zaoferowali nam kolejną nowość, która pozwoli nam właśnie na otrzymanie różnych nagrań.
To narzędzie ma być konkurencją dla, no pewnie główną konkurentą tutaj będzie Adobe Podcast, czyli też tutaj ta podobna usługa właśnie od firmy Adobe.
Też usługa, która tutaj działa w sieci. Możemy albo nagrać coś z mikrofonu, albo załadować plik audio i go po prostu przetworzyć.
Ja przyznaję się, że ludzie, wiedziałem się o tym niedawno, więc jeszcze nie zdążyłem tego przetestować na własnych próbkach, a myślę, że na pewno będzie warto to zrobić.
No zobaczyć faktycznie jak naprawdę dobra jest ta usługa. Generalnie to co oferuje Eleven jest zawsze na wysokim poziomie.
No pytanie, czy to będzie faktycznie też tak dobre, natomiast mogę pokazać wam, jak to działa, przynajmniej używając próbki, którą nam zaoferuje, zaoferował właściwie nawet producent.
Mamy tutaj demonstrację i myślę, że sobie szybko tą demonstrację odtworzymy. Najpierw puszczę klip bez odtwarzania, tutaj chyba jest jakaś mucharka uruchomiona, no zresztą sami usłyszycie, że jest głośno.
No i rzeczywiście robi to wrażenie, natomiast jest trochę zniekształcony ten głos, nie?
Jest trochę zniekształcony i jedna rzecz, Tomek Bilecki to testował z tego co wiem bardziej,
więc może w następnej audycji jeszcze coś do tego doda.
Na przykład Adobe w tym swoim narzędziu ma taką niefajną cechę, mianowicie nie jest zbyt kompatybilny z innymi językami niż angielski, a na pewno ma problem z polskim.
Mianowicie Adobe w tym swoim narzędziu, przynajmniej na niektórych głosach, lubi troszeczkę dodać coś takiego.
Jakby takiej angielskiej tej, angielskiego sposobu wymowy, jakbyśmy, nie wiem, pojechali sobie do Stanów na 10 lat i mówili po polsku potem.
Więc jest to coś, czego ponoć właśnie to od Eleven Lapsa nie ma, więc no rzeczywiście fajnie, fajnie, że to działa tutaj lepiej i że nie ma z tym kłopotów.
Natomiast o ile Adobe, jeżeli ktoś korzysta z tego ich całego pakietu no to oferuje to w ramach tego właśnie pakietu i za darmo też oferuje chyba pół godziny, czy godziny, nie, chyba pół godziny, na domyślnym ustawieniu, to tu Eleven Labs to sobie kasuje za każdą minutę tego obsługi.
Tak, właśnie miałem powiedzieć, mam nadzieję, że to faktycznie jest tak dobre, to będzie trzeba to przetestować, bo kasują to niemało, bo to kosztuje tysiąc znaków za minutę.
Także jak ktoś sobie nawet wykupił ten najlepszy plan dla twórców, ten za 20 dolarów powiedzmy, którym dostajemy 100 tysięcy znaków, no to dostajemy niecałe półtora godziny tak naprawdę, to nie jest jakoś dużo, jeśli ktoś dużo potrzebuje odszumiać.
Dobrze, że my nie szumimy, bo byśmy się nie wypłacili po prostu.
No właśnie. Natomiast jest kolejne narzędzie, można każdy już sobie to przetestować. Oczywiście za darmo dostajemy 10 tysięcy, chyba 5 albo 10 tysięcy znaków miesięcznie po założeniu konta, więc jeśli macie jakieś nagrania, które chcecie sobie na próbę odszumić, przetestować, no to jak najbardziej można.
I teraz przechodzimy do ostatniego tematu i to tak się dosyć fajnie złożyło, bo z jednej strony zwykle kiedy przekraczamy cztery godziny to mamy dla was niespodziankę dźwiękową,
A dziś, tak czy inaczej, będziemy dla was mieli niespodziankę dźwiękową,
a to za sprawą ostatniego tematu z naszych radiowych notatek,
mianowicie tematu dotyczącego mikrofonów przystawkowych.
Tak, mikrofony przystawkowe, bądź po angielsku pick-up coil,
czyli taki specjalny rodzaj mikrofonu, który tam, gdzie zbiera dźwięk,
Ma taką przyssawkę, przysysa się ją do powierzchni dowolnego sprzętu elektronicznego
i ten mikrofon wyłapuje fale elektromagnetyczne emitowane przez ten sprzęt.
To w praktyce oznacza, że zgrywany jest dźwięk, który ten sprzęt wydaje,
w takiej jakości mniej więcej jakby, no nie wiem, bezpośrednio z tego głośnika po prostu coś zgrać.
czyli ewidentnie słychać, że to nie jest głośniczek nagrywany sobie mikrofonem zwykłym z telefonu czy tam nawet jakimś studyjnym, ale w pokoju,
tylko po prostu ten dźwięk jest odsysany w pewnym sensie z tego głośnika bezpośrednio,
plus jakieś tam też śmieci się okazują, jakieś fale elektromagnetyczne, jakieś pyrczenie, coś tam, coś tam.
No i temat wypłynął w ramach grupy telegramowej Jest Telefon Jest Zabawa, gdzie siedzimy sobie taką grupką osób zainteresowanych właśnie telefonią.
I taką telefonią też trochę retro, właśnie jakieś zbieranie dzwonków, zbieranie komunikatów, porównywanie infolinii.
Mega wkręceni jesteśmy tam ogólnie w temat telefonów w różnych aspektach.
No i tam dwóch uczestników sobie kupiło takie mikrofony z Amazonu w Stanach i posłali kilka próbek i aktualnie tym nagrywają różne ciekawe rzeczy.
W związku z tym mamy mały przegląd nagrań, które zostały takimi mikrofonami poczynione i czy Michale pokusiłbyś się o ich prezentację?
Ależ oczywiście, tak, mam to wszystko już przygotowane, mam te materiały, więc teraz sobie posłuchamy.
Na dobry początek posłuchamy sobie dysku twardego iPoda.
Kto by pomyślał, że to aż tak bardzo hałasuje.
Okej, następny materiał to będzie dźwięk laptopa.
po prostu laptopa, jak komputer przenośny potrafi hałasować, kiedy do niego się taki mikrofon przyłoży.
Tak to brzmi. Teraz już przechodzimy do telefonów. Telefon LG.
Jak słychać to naprawdę brzmi ładnie.
No i na zakończenie tego zestawu dźwięków posłuchajmy jeszcze
iPhone’a z kolei, do którego ten mikrofon został przyssany i poczty głosowej, fragment po prostu telefonu na pocztę głosową.
głównego, naciśnij gwiazdkę, aby dowiedzieć się, jak nagrać osobiste powitanie, naciśnij 1, aby dowiedzieć się, jak zmienić swój PIN, naciśnij 2, aby dowiedzieć się, jak odsłuchiwać, zapisywać i usłyszeć.
A tu jeszcze koniec, to też bardzo ciekawie zabrzmiał, czyli to, co tak naprawdę wysyła w świat nasz telefon, kiedy ekran jest odblokowany.
No tak.
Więc rzeczywiście bardzo ciekawie brzmiące rzeczy.
Dziękujemy Miłoszowi za te nagrania, bo to właśnie Miłosz Nowicki je przygotował.
Bardzo ci dziękujemy za to, że je nam udostępniłeś.
No i cóż, i to jeżeli chodzi o notatki, to by było tyle.
Pytanie, czy jeszcze coś przyszło?
Nie.
Ja może bym jeszcze tylko wrócił szybko do tematu Coleo. Istotnie nie jest niestety to przełączanie tych przycisków, kierunek jazdy i to drugie pole takie martwe, puste. Zdaje się nic nie robić.
Jak jedno jest zaznaczone, to drugie nie jest. Jak drugie jest zaznaczone, to pierwsze nie jest. Ale miejsca są pokazywane te same, przynajmniej tak ja to widzę.
No mogę pokazać jeszcze, bo udało mi się odkryć pociąg, który ma trochę więcej niż 4 wolne miejsca.
No to spróbujmy może.
13 korytarz, miejsce dla osoby na wózku, 15 okno, opiekun, osoby z niepełnosprawności, 16 okno, 17 korytarz, opiekun, osoby z niepełnosprawności, 18 korytarz, 21 okno, 23 korytarz.
No i tak to wygląda i żeby nie było to po nagłówkach sobie poskaczę.
Wagon 14, wagon 15, wagon 16, wagon 17, nie znaleziono nagłówków.
No ja na przykład tu bym miał.
13 korytarz 14 korytarz 8 2 3 3 3 6 7 7 7 7 7 8 8 8 8 kierunek 87 korytarz miejsce dla podróżnego z rowerem 86 okno miejsce dla podróżnego z rowerem no i mam tutaj kierunek jazdy zaznaczone kierunek jazdy zaznaczone kierunek jazdy no ale dalej 87 korytarz miejsce dla podróżnego z rowerem no nie widzę żeby były jakieś inne miejsca dostępne
Także chyba tak to działa na ten moment w tym COLEO.
Okej, no to warto wiedzieć. No i zobaczymy. No to jest słuchajcie, pierwsza wersja tego schematu,
więc podejrzewam, że za jakiś czas może być jeszcze lepiej. Natomiast jeszcze mamy telefon.
Jeszcze Maciek do nas się dodzwonił. Witaj Maćku.
No ja nieustraszony w związku jeszcze, że tak powiem, z głosówką, którą sobie pozwoliłem poczynić.
Natomiast właśnie, jak się na szczęście zdążyłem dzwonić, to sobie mam do was pytanie jeszcze.
Poniekąd ciekaw jestem, jeśli chodzi o Face ID w iPhonach i punkt uwagi generalnie.
Znaczy inaczej, punkt uwagi to jest jedna rzecz, ale zanim, zanim to, to jak sobie skanujecie twarze tym FaceID, to jaki jest mniej więcej czas reakcji, powiedzmy, idzie wam to od razu tak błyskawicznie?
Maćku, właśnie poruszyłeś bardzo ciekawy temat, z którym ja ostatnio muszę powiedzieć mam problem.
Ja myślałem, że to jest kwestia po prostu tego, że powoli przyszedł czas na wymianę mojej baterii w telefonie, bo mam tam 91%.
No niby jeszcze dużo, ale…
Ale nie woła o serwis?
Nie, nie woła o serwis, ale nie, o serwis on będzie wołać przy 80%.
Ale niekoniecznie.
Nie?
Nie, w ogóle przypadek był śmieszny.
Moje mamie swego czasu przy 93 wołał o serwis. Chłopy w ajmacie się za głowę złapali, o co w ogóle chodzi, ale wymienili te baterie i wyłączał się, a objawy, symptomy wszystkie były właśnie wskazujące na obniżoną kondycję baterii, włącznie z tym, że wołał o serwis.
A no widzisz, ale ja ostatnio zauważyłem, że przy niektórych operacjach ten Face ID mi rzeczywiście zwolnił, ale to nie jest tylko to, bo też na przykład aktualizacje jakoś mi się wolniej zaczęły pobierać z App Store’a, zwłaszcza jeżeli jest ich dużo, to to się wlecze, wlecze, ten telefon się potrafi trochę zgrzać bardziej niż kiedyś miał to w zwyczaju,
więc myślałem, że to jest wszystko jakby spowodowane tym, no że ta bateria już jednak nie jest pierwszej młodości, a nie ma jeszcze dwóch lat, więc no niestety, tak to…
– A może ten wskaźnik szaleć na przykład i nie pokazywać też prawdy, a jednak coś tam będzie, może być znane czy…
– No właśnie, no właśnie, więc i tak od pewnego czasu zauważam, że ten FaceID reaguje wolniej.
– Okej, mimo że… A wcześniej normalnie jest po prostu.
– Tak, tak.
Aha, nie, bo ja bardziej piję do tego, że no właśnie, u mnie też ten FaceID działa obłędnie, działa bardzo szybko, działa fajnie i ten, no i trochę się, że tak powiem, a ja lubię wyzwania i gdzieś tam jak ten, jednak iOS to rozpieszcza człowieka w sumie, no i tak się troszeczkę, że tak powiem, tym znudziłem, że on tak działa niezawodnie, tak fajnie w ogóle.
Zastwierdziłem, a niech stracę, chociaż kiedyś mi to nie działało jak trzeba,
ale włączyłem sobie ten punkt uwagi, znaczy kiedy sobie włączyłem wymagaj punktu uwagi,
czyli właśnie tego, żeby, prawda, no, wymóg patrzenia na ekran podczas odblokowania,
żeby oczy były widoczne. No i kiedyś mi to nie działało. Ja się z tym strasznie męczyłem
i mi to nie działało. A żeby nie było, no ja nie widzę zupełnie nic i żadnym resztkowcem
nie jestem i tak dalej, ale sobie postanowiłem jakieś dwa tygodnie temu,
a spróbuję sobie jeszcze raz, a co, w sumie, prawda, wakacje po studiach i wszystko,
nudzi się człowiekowi, można poeksperymentować. Jakieś było moje zdziwienie,
jak się okazało, że w zasadzie odblokowuje tego iPhona, mając po prostu wyłącznie otwarte oczy,
ale tak od strzała, po prostu on się odblokowuje tak, nie?
Więc to nie jest koniecznie tak, że na ten ekran trzeba stricte patrzeć, może ja na niego nieświadomie patrzę, nie wiem, ale kwestia jest taka, że jak te kamery, te sensory wykryją, że ma oczy po prostu otwarte, bo przy zamkniętych, przy pół zamkniętych, czasami nawet przy pół zamkniętych skubanych zadziała, więc to też jest ciekawe, natomiast przy takich przymrużonych, nie?
natomiast odblokowuje. Nieraz, wiadomo, przy jakimś tam nasłonecznieniu większym, czy jak jest zbyt ciemno,
to zdarzy się, że ta reakcja jest wolniejsza niż, powiedzmy, przy wyłączonym tym punkcie uwagi,
czyli braku potrzeby patrzenia na ekran, ale mimo wszystko działa to całkiem fajnie.
Wszelkie operacje jakby uwierzytelniające, czy to Apple Pay’em, płacenie, czy to, nie wiem, otwieranie aplikacji,
wypełniania haseł i tak dalej, tam gdzie używane jest Face ID,
a w ogóle mam wrażenie, że to jest jeszcze bardziej
rygorystyczne i bardziej jeszcze dokładne, niż jak stricte odblokowujemy
telefon w sumie, że jest większe niepowodzenie
rozpoznania twarzy właśnie przy uwierzytelnianiu się
innego rodzaju poza odblokowaniem ekranu,
niż jak się stricte ekran blokowuje.
A tutaj normalnie też działa to bardzo fajnie, więc w sumie…
Wiesz co, może coś w tym być, bo właśnie pytałeś o szybkość tego reagowania, no przy odblokowaniu generalnie to mi to działa szybko i chyba nawet to punkt uwagi też mam włączony, nie pamiętam, musiałbym sprawdzić, natomiast…
12.14 nocy
No tak, teraz mi nie chce się odblokować, spoko
12.14
Jakby pół sekundy niecałe, to jest demo na żywo, natomiast faktycznie jeśli chodzi o uwyżytelnianie czegokolwiek innego, czy to jest Apple Pay, czy to jest zwłaszcza logowanie do bankowości na przykład, mam wrażenie, że to działa wolniej i mam wrażenie, że czasami muszę to ponawiać dwa razy, dwa trzy razy.
Wolniej, bo jest to gdzieś tam, spróbuj ponownie komunikację, więc restrykcje być może większe, natomiast no właśnie z tym punktem uwagi, fajnie to działa, na całe szczęście, znaczy dobrze, że jak się konfiguruje z voice overem, to ten punkt uwagi się automatycznie wyłącza, no bo jeżeli ktoś nie jest w stanie otwór otworzyć, no to prawda, ale jeżeli jest i ma już to wytrenowane, że przy punkcie uwagi wyłączonym, domyślnie z voice overem,
od tak sobie od strzału odblokowuje telefon,
to ja w sumie zachęcam, żeby sobie to włączyć,
choćby nawet w warunkach domowych przetestować
i jak będzie działo dobrze,
to w sumie, żeby sobie to zostawić włączone,
no bo co by nie mówić…
Znaczy wiadomo, jak mamy ten punkt uwagi wyłączony,
jakoś tam to bezpieczeństwo jest obniżane.
Może nieznacznie w sumie,
może jakoś bardzo za tym nie cierpimy, ale jednak.
A w sumie, co nam stoi na przeszkodzie,
sobie to włączyć, podnieść w tym samym poziomie
jeszcze bezpieczeństwa tej autentykacji twarzą,
A jeszcze w ogóle z włączoną ochroną przed kradzieżą, swoją drogą też w opcjach Face ID i kodu,
no chyba że mamy Touch ID, no to tam też to działa, ale my tu o Face ID.
Więc w sumie czemu nie, prawda, jeżeli to już mamy fajnie opanowane i tak dalej, więc…
Bo to tak troszeczkę mam wrażenie, że troszeczkę taki gdzieś tam się zrobił z tego utarty,
może nie stereotyp, może nie mit, no coś pomiędzy,
że jeżeli jesteśmy całkowicie niewidomymi osobami, nieresztkowcami,
że jeżeli tak na ten ekran stricte nie potrafimy popatrzeć,
to to, że ten punkt uwagi nam się nie sprawdzi.
A właśnie, no kurczę, mi się sprawdza i jestem też bardzo z tego zadowolony,
dlatego też bardzo zachęcam.
Wiadomo, no jeżeli ktoś, powiedzmy, nie wiem, przyjmuje jakiś czas krople,
bo, no nie wiem, coś i prawda, to oczy musi zamknąć i nie da rady otworzyć,
no to wtedy na ten czas raczej sobie to wyłączyć, no bo,
no bo żeby komplikacji nie mieć, ale tak normalnie,
w normalnych warunkach w sumie, czemu nie.
To taka przedrobna zachęta na koniec.
No pewnie, wypróbować zawsze warto, zawsze można wrócić.
Dokładnie, zawsze można wrócić. Najlepsze jest to, że jak się
włączy, to tylko taka lekka haptyka jest, a jak się wyłączy, to jeszcze tam nam
powie, że no tutaj już nie, nie, nie, ten, bezpieczeństwo tam będzie obniżone, prawda,
że tam, że tam voice-over, znaczy, że, że wtedy nie jest wymóg patrzenia na ekran i tak dalej,
ale nie przejmować się tym po prostu, no,
no, jakby używać tego jak nam wygodnie, nie mniej, no można tego użyć, spróbować sobie sprawić, nie, jak to będzie działo.
No, także w sumie tyle ode mnie dzisiaj, chyba jeden z rekordowych tam odcinków, nie.
I tego dotyczy, jak rozumiem, Maćku, ta twoja głosówka, tak, którą nam wysłałeś?
No, w zasadzie, w zasadzie to tak.
Okej, dobra.
Tak, więc już nie ma potrzeby dublować, emitować.
Jasne.
No.
Dobra, no to dzięki w takim razie za telefon i cóż, dobrej nocy.
No, dzięki wzajemnie.
Hej.
No i tym samym będziemy kończyć nasze dzisiejsze kolejne wydanie Tyflo Przeglądu, Tyflo Przegląd nr 241.
Kolejny Tyflo Przegląd za tydzień na antenie Tyflo Radia, a na dziś dziękujemy Wam bardzo za uwagę.
Paweł Masarczyk, Piotr Machacz i mówiący te słowa Michał Dziwisz. Dobrej nocy, do usłyszenia.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych