TyfloPrzegląd Odcinek nr 273 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Mamy środę. Tak, środę. Nie wtorek, moi drodzy. Środę, 12 dzień marca 2025 roku.
Zaczynamy Tyflo Przegląd o wydaniu numer 273. Ja nazywam się Michał Dziwisz.
Dziś wspólnie ze mną tę audycję poprowadzi Paweł Masarczyk.
Witaj Michale, witajcie słuchacze. No dzisiaj tak kameralnie.
Tak jest, ale Paulina też.
Z wami, was jest dużo.
Dokładnie. I Paulina jeszcze z nami będzie, ale będzie nieco później i będzie opowiadać,
jak łatwo się domyśleć, o różnego rodzaju sztucznie inteligentnych tematach.
Ale to później. A zresztą w ogóle o czym dziś będzie, to posłuchajcie i wszystkiego się dowiecie.
No, prawie wszystkiego.
W tym tygodniu w Tyflo Przeglądzie.
Poważny błąd dostępnościowy na Facebooku dla iOS.
NVDA Remote staje się częścią NVDA.
WhatsApp na Windowsa ma irytujący błąd, który da się obejść.
Spotify na iOS już nie powinien skakać.
Poprawki dostępności także w Overcast.
Dźwięk w trybie awaryjnym Windows. Jak go uzyskać?
Nowości z konferencji Zero Project i CSUN.
Nie masz klawisza Co-Pilot?
Microsoft pozwoli wywołać konwersację głosową skrótem.
Tylko czemu akurat tym?
Marcowa aktualizacja Joe’s.
Jaki jest GPT 4.5?
RISCAM. Nowozelandzki sposób na walkę z e-mailowymi oszustami.
Wszystko to a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600,
powtarzam 663-883-600 oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
No dobrze, zaczynamy nasze dzisiejszy Tyflo Przegląd, Tyflo Przegląd numer 273,
a startujemy wypowiedzią głosową naszego słuchacza.
Witajcie Mateusz z tej strony.
Mam takie pytanie dotyczące linijki Focus 14 Blue New piątej generacji.
Czy kojarzycie jak zrobić ewentualnie twardy reset?
Bo może by to pomogło.
Mam problem konkretnie taki, że wczoraj nagle w dziesiątej komórce
pin, który jest odpowiedzialny za punkt szósty, nie wsuwa się z powrotem.
Tylko on cały czas jest wysunięty, pokazuje się ten punkt, nawet jeśli on nie jest potrzebny.
Tak to wszystkie komórki ładnie wyświetlają się.
Nie ma oznak jakiegoś brudu.
Czyściłem sprężonym powietrzem na wszelki wypadek i nic nie pomogło.
Dodatkowo dziwnym objawem było to, jak dzisiaj włączyłem,
przez pierwsze pięć minut użytkowania część komórek jakby się w ogóle nie wysunęła.
Tak jakby był sprzęt wyłączony i dopiero po pięciu minutach zaczął działać normalnie, w miarę, poza tą dziesiątą komórką.
I dodatkowo z baterią dziwne rzeczy się zaczęły dziać.
W ciągu dziesięciu minut 20% spadło do 5%,
A przez kolejną godzinę trzymało się te 5% cały czas i dopiero gdzieś po godzinie albo nawet półtorej wyłączył się.
Jeżeli chodzi o resetowanie, to ja tu w międzyczasie znalazłem jakąś informację dotyczącą tego jak to należy zrobić.
To należy nacisnąć prawy selektor, prawy shift, lewy ten przycisk okrągły, czyli ten przycisk mode na górze linijki i należy razem z tymi klawiszami nacisnąć jeszcze klawisz power i trzymać te klawisze do momentu aż się linijka w jakiś sposób nie odezwie,
nie zasygnalizuje swojej pracy, więc…
To jest sposób na reset, przynajmniej taki, który znalazłem na szybko.
Nie wiem, czy ty, Pawle, może coś więcej jesteś w stanie tu powiedzieć.
No, mam co prawda linijkę Focus 14 Blue, troszkę starszą, bo sprzed, no, ponad dziesięciu lat.
I kurczę, mam wrażenie, chociaż mogę to mylić z jakimś innym urządzeniem,
że jest taki typowy, troszkę głębiej osadzony przycisk, który można nacisnąć i przytrzymać
i w ten sposób tego resetu dokonać.
Natomiast pewnie, Michale, dojdziemy do tej samej konkluzji.
Po tych objawach, które opisujesz, Mateuszu,
oczywiście my nie jesteśmy bynajmniej serwisantami
produktów Vispero czy też właśnie konkretnie linijek Focus,
ale mi osobiście brzmi to na sprzętowy problem.
Tak, ja to potwierdzam.
Zresztą ja z jednym ze swoich Focusów miałem taki problem kiedyś
i to był problem po prostu z modułem brailowskim.
No, sprężone powietrze raczej niewiele tutaj pomoże, bo jeżeli i prawdopodobnie tak się stało, że gdzieś tam ten problem jest głębiej w tym module, że coś ten pin po prostu trzyma i nie pozwala mu się schować, więc raczej obawiam się, że to urządzenie należałoby po prostu wysłać do naprawy, no pewnie przez Altix, no bo oni są głównym dystrybutorem tych urządzeń.
Chociaż nie odrzeczy na pewno będzie skontaktować się po pierwsze z firmą, w której kupiłeś tę linijkę
i dowiedzieć się, co należy robić dalej. Ale ja się obawiam, że tu raczej potrzebny będzie po prostu serwis,
wymiana tego modułu brajlowskiego, albo ewentualnie czyszczenie takiego modułu po prostu przez specjalistów.
I ja tu zdecydowanie odradzałbym czyszczenie takich modułów samodzielnie.
To znaczy rozkręcanie takiej linijki, bo ja kiedyś, dawno, dawno temu, zrobiłem coś takiego właśnie z notatnikiem brailowskim, z Braillite’em, który no już dogorywał tak naprawdę i w sumie wiele do stracenia nie miałem, a sam byłem po prostu ciekaw, jak takie moduły brailowskie, jak taka linijka wygląda, no z nowym urządzeniem absolutnie bym tego nie robił, bo po prostu szkoda by było, to nie są tanie rzeczy.
Natomiast jak rozkręciłem ten cały sprzęt i nawet specjalnie nic tam, wiele z tym nie robiłem, tylko po prostu chciałem sobie to obejrzeć od środka.
No to jak to obejrzałem i to złożyłem, to te moduły działały jeszcze gorzej niż przed tą interwencją, więc absolutnie do tego bym nie namawiał.
No po prostu należy się skontaktować ze sprzedawcą i umówić kwestie serwisowe, bo tu obawiam się, że rzeczywiście reset.
Niewiele da, no ale zawsze możesz spróbować oczywiście, to jak najbardziej, to w sumie nic nie tracisz, a spróbować warto.
Ewentualnie no może jedynie to skopiuj sobie dane, jeżeli masz jakieś notatki w tej linijce, bo nowe linijki potrafią też przecież działać jako takie podstawowe notatniki brailowskie,
Żebyś aby tych danych nie stracił.
Więc to chyba tyle na ten temat.
A teraz myślę, że możemy przejść do nowości
związanych z dodatkami do NVDA.
Zgadza się.
Tych nowości mamy w tym tygodniu trzy.
Przynajmniej tyle znalazłem na ten moment.
Pierwszą z nich jest
Jest to dodatek, który pozwala nam na przełączanie
tego, czy komunikaty tak zwane UIA, czyli te, które
tak automatycznie z różnych programów się pokazują.
To mogą być te komunikaty np. z Edge’a o tym, że otwieramy, zamykamy kartę.
Jakieś komunikaty z Office’a, gdzieś tam z Windows’a.
Te, które są odczytywane często gdzieś tam automatycznie
o tym, że coś się dzieje. Czy one mają być odczytywane, czy nie?
czy ma, zamiast nich powiedzieć, odtwarzane piknięcie.
I to wtedy się robi skrótem NVIDIA plus literka I.
Więc to taki mały dodatek.
Drugi to Kokoro TTS.
Kokoro to taki znowu neuronowy model językowy,
który pozwala na zamianę tekstu na mowę,
ponoć z dość niskimi opóźnieniami i z dość dobrą jakością.
No i tutaj ktoś stworzył właśnie pod to sterownik.
Ja tego jeszcze nie testowałem.
Wydawało mi się, że trzeba mieć jakieś natrenowane modele,
ale tutaj jest napisane, że wymagana jest instalacja uprzednio eSpeak’a.
Także może to jakoś eSpeak Plus, jakieś tam jego…
nie wiem, natrenowanie czegoś.
I może on jest w stanie w jakiś sposób tam do nas mówić.
Trzeba by się temu przyjrzeć, natomiast jest już to dostępne na GitHubie.
Można sobie pobrać i zainstalować taki dodatek.
Także tutaj trzeba będzie się tym pobawić.
No i trzecia rzecz to Enhanced Language Detection.
Tak się nazywa chyba.
Switching. Enhanced Language Switching.
No jak słyszymy enhanced, no to już mieliśmy Enhanced Object Navigation i to ten sam
autor, czyli Emil18, taki dodatek stworzył.
A jest to ni mniej, ni więcej, a kontynuacja czegoś, co już kiedyś wam
pokazywałem, czyli dodatku, który
Gdzieś tam analizując tekst, analizując całe słowa w tekście i tak dalej,
był w stanie określić w jakim języku jest tekst,
nawet jeżeli nie było to nigdzie zdeklarowane.
Jak się deklaruje na stronie internetowej czy w dokumencie wordowskim,
on po prostu przyglądał się tekstowi i wiedział.
Ten dodatek był trochę wolny, ale działał i przestał być rozwijany,
więc Emil wziął sobie za zadanie kontynuację rozwoju tego dodatku
i ten dodatek jest również dostępny na GitHubie.
Także jeżeli tęskniliście za nim, chcielibyście go mieć w nowszych wersjach NVDA,
no to jest teraz zastępnik, można spokojnie tego używać.
Jak dobrze pamiętam, to voice-over na macOS-ie taki właśnie mechanizm ma.
I JAWS 2025 również. Chociaż JAWS 2025, tam coś się mówi o sztucznej inteligencji,
więc nie wiem na ile to są jakieś modele już AI, a na ile jeszcze takie techniki
typowo rozpracowywania słów na jakiejś tam części pierwsze.
No ale rzeczywiście fajnie, że idzie to w tę stronę, bo oczywiście wiadomo, że najlepiej byłoby…
O, coś chyba, Pawle, mikrofon ci uciekł.
Chyba tak, czy teraz się słyszymy?
Tak, tylko bez oryginalnego dźwięku jeszcze.
A, no to już naprawiamy ten błąd.
No niestety.
No tak, gdyby jeszcze czytnik ekranu chciał do mnie wrócić.
No okej, ja tu już w każdym razie chyba to, co chciałem opowiedzieć, to opowiedziałem, więc po prostu jeżeli dodatek Wam jest potrzebny, no to zapraszam.
Jasne. No to teraz kilka słów ode mnie, bo kolejna wiadomość to właśnie jest wiadomość pochodząca ode mnie, ale wiadomość mało przyjemna, no niestety, muszę to powiedzieć.
Dla tych wszystkich, którzy używają Facebooka na iOSie, dla tych wszystkich, którzy jeszcze się nie zaktualizowali do najnowszej wersji, to dobra rada, słuchajcie, nie aktualizujcie się jeszcze, poczekajcie na jakąś może kolejną wersję aplikacji, bo jeżeli się zaktualizujecie, to istnieje bardzo duża szansa, bardzo duże prawdopodobieństwo na to, że nie będziecie mogli pisać komentarzy.
Nie tylko zresztą komentarze, też niektórzy zgłaszają problemy z możliwością pisania nawet postów na Facebooku.
To, czego ja doświadczyłem i co rzeczywiście działa bardzo, ale to bardzo źle, chociaż tak jak wspomniałem, różnie to u różnych użytkowników jest.
No to na przykład u mnie, no nie da się pisać komentarzy. Nie da się pisać komentarzy braille.
Komentarze za pomocą klawiatury QWERTY da się wprowadzać,
natomiast problem w nich jest taki, że okej, możemy pisać,
ale nie mamy w żaden sposób kontroli nad tym, jaki tekst wprowadziliśmy.
A dopiero ta kontrola zaczyna się w jakiejś szczątkowej wersji pojawiać
w momencie, kiedy taki komentarz opublikujemy.
Wtedy, kiedy wejdziemy w edycję tego komentarza i zaczniemy go poprawiać,
to jest to możliwe z użyciem klawiatury QWERTY, da się to zrobić.
Natomiast nie jest to możliwe z użyciem Braille’a.
Więc Braille na Facebooku w tym momencie odpadł nam całkowicie.
No jeszcze jakoś tam od biedy pisanie za pomocą standardowej klawiatury jest możliwe, dyktowanie pewnie też, ale no to jest bardzo duży błąd i to jest bardzo poważna kwestia, dla niektórych tak naprawdę wykluczająca w zasadzie w ogóle Facebooka w tym momencie z jakichś takich aktywności, bo czytać można, przeglądać można, no ale cóż z tego, kiedy zabrać głosu nie można.
A zdaje się, że Facebook miał dostępność poprawiać.
No to chyba jednak poszło to nie w tę stronę, w którą miało.
Ewentualnie można jakąś tam mieć nadzieję, że to jest przymiarka do tego, żeby tę dostępność jednak poprawić.
Ale kiedy to nastąpi? Jak to będzie wyglądało?
No zobaczymy, zobaczymy. To czas pokaże.
Więc jeżeli jeszcze nie zaktualizowaliście się do najnowszej wersji Facebooka, no to tego nie róbcie.
Poczekajcie sobie spokojnie, jeżeli…
Oczywiście lubicie komentować różnego rodzaju posty, wpisy, brać udział w dyskusjach w grupach na przykład,
no bo to niestety dotyka wszystkich tych naszych aktywności, kiedy chcemy napisać jakikolwiek komentarz.
Teraz przechodzimy do kolejnych informacji.
To może, Pawle, teraz co nieco na temat konferencji.
Bo masz dla nas informacje o dwóch konferencjach
i tu będzie sporo technologicznych nowości.
Tak, jak najbardziej.
Na jednej z tych konferencji być mogłem i byłem.
To było w zeszłym tygodniu.
A drugą, jak zwykle, co roku śledzę.
Drogą internetową z relacji osób i organizacji trzecich.
No bo jednak San Diego, nie, przepraszam, Anaheim w Kalifornii,
troszkę za daleko i mi się nie bardzo gdzieś tam z moim grafikiem pracy zgrywa.
Natomiast na konferencji Zero Project w Wiedniu to już jak najbardziej mogłem być,
tak jak i zresztą rok temu. Dla przypomnienia, była audycja o tym,
czym jest konferencja Zero Project, jaki jest jej zamysł, czemu powstała,
Ale taki krótki recap, krótkie przypomnienie.
Zero Project, czyli konferencja poświęcona temu, aby powstał świat, gdzie jest zero barier.
Taki slogan. No a chodzi o to, aby przez różne rozwiązania technologiczne
zniwelować przeróżne bariery, na które napotykają osoby z niepełnosprawnościami.
Zwłaszcza, ale nie tylko, w krajach rozwijających się.
Więc jest bardzo, bardzo dużo nacisku na to, co tam ciekawego w Indiach,
a co tam ciekawego w Pakistanie, a co tam w Afryce, a co tam przykład w Ameryce Łacińskiej.
No i dużo też jest przedstawicieli różnego rodzaju fundacji, organizacji z tamtych rejonów,
nawet przedstawiciele struktur rządowych w niektórych przypadkach, no i startupów,
które różne rzeczy chcą pokazać. Ja na tej konferencji byłem, bo zawsze konferencje
Oczywiście takie odostępności są ciekawe, nawet jeżeli gdzieś bezpośrednio ten nasz rynek europejski nie jest celem,
chociaż to nie jest też do końca prawdą, bo np. start-upy, które wygrały nagrodę, bo zawsze jest ceremonia wręczenia nagród dla start-upów,
które oczywiście te start-upy się wcześniej do takiej nagrody zgłosiły, no i zdaniem Komisji Jurorskiej największą innowację wprowadzą.
No to tam większość to były jednak startupy gdzieś tutaj z obszaru europejskiego w tym roku.
No, już zaspojleruję, niestety nie było tam żadnego rozwiązania typowo pod osoby niewidome,
ale były też rzeczy bardzo ciekawe.
Na przykład mysz sterowana głową, tutaj dla osób z różnego rodzaju niepełnosprawnościami ruchowymi
jest to pewnie dobra informacja, pomysł z Finlandii.
Pomysł nie nowy, bo tego typu rozwiązanie to już jest sporo
Tak naprawdę od kilkunastu, jak nie kilkudziesięciu lat, nawet w Polsce były produkowane tego typu urządzenia.
No ale tu na pewno pomysł jest już znany, ale wykonanie pewnie jakieś nowe.
Tak, tam jakieś szczegóły się po prostu różnią. Nie wiem, czy chodziło chyba o gesty obracania głową, czy jakaś technologia.
Wiem, że dość nowoczesna jest wykonana. Też było rozwiązanie dla dyslektyków.
Była też Platforma Hiszpańska, którą ONCE, czyli największa organizacja osób z niepełnosprawnościami w Hiszpanii,
przy współpracy z Samsungiem, stworzyła, która ta platforma ma pomóc w poszukiwaniu pracy.
Natomiast myślę, że zacznę od tego, jak technicznie konferencja była zorganizowana, bo było parę różnic.
Dla przypomnienia, konferencja odbywa się w budynku Organizacji Narodów Zjednoczonych w Wiedniu.
I no jest to gigantyczny budynek, gigantyczna przestrzeń, w ogóle wejście na samą konferencję.
To jest trochę, przypomina przejście przez lotnisko, jest przeskanowanie bagażu,
jest w ogóle kontrola osobista, trochę właśnie jak na lotnisku.
Trzeba przejść, trzeba pobrać tą plakietkę odwiedzającego.
Jak się tam przychodzi pierwszego dnia, to trzeba się przygotować na to,
że to może troszkę dłużej potrwać, zwłaszcza jak przyjdziemy zaraz z rana i wszyscy chcą.
Ja już kolejne dni, jak już mamy te plakietki i to wszystko,
to już idzie troszeczkę szybciej.
Natomiast w tym roku różnice są dwie, bo po pierwsze
nagrano pliki z audiodeskrypcją,
która miałaby pomóc osobom niewidomym w samodzielnym dotarciu
i takim mniej więcej, powiedzmy, poruszaniu się po tym terenie,
tej części terenu budynku, gdzie odbywa się konferencja,
gdzie tam są te wszystkie prelekcje i różnego rodzaju spotkania.
Bardzo fajnie to było wykonane, bo mieliśmy instrukcję od samego metra,
czyli jak dojedziemy metrem na stację, to co dalej robić,
podawane w taki sposób, jak zwraca się do nas typowy GPS,
czyli po wyjściu z metra skręć w lewo na linie prowadzące
i po tam powiedzmy trzydziestu czy iluś metrach
skręć w prawo na godzinę trzecią na schody.
Także tego typu instrukcje były podawane.
Był opis każdego z pomieszczeń, w których odbywały się prelekcje.
Do tego stopnia, że opisana była nawet ścieżka ewakuacyjna.
Oczywiście całe przejście, jak przejść przez kontrolę bezpieczeństwa,
jak tam potem wyjść dalej.
Ja powiem szczerze, że chyba ktoś, kto nagrywał, czy pisał ten skrypt
samej audiodeskrypcji, podjechał metrem z innej strony niż ja,
Z mojego kierunku metra w ogóle te instrukcje się nie pokrywały.
Natomiast bardzo możliwe, że tam ktoś po prostu wziął sobie
przez tę stację, znaczy peron drugi
jako punkt referencyjny i tak zostało to opisane.
No ale też nie ma się co załamywać, bo było tam mnóstwo ludzi,
którzy byli chętni pomóc. Czy wolontariusze, którzy są tam
przydzieleni na miejscu, czy po prostu inni uczestnicy,
którzy nie mieli problemu z tym, żeby nas podprowadzić do różnych innych pomieszczeń.
Także ja chyba dwa razy…
No nie, raz, okej, dobrze. Jednego dnia przyszedłem sam,
bo koleżanka moja z pracy, która ze mną w tym roku się wybrała,
miała przyjść troszeczkę później, no i się po prostu podpiąłem pod innego uczestnika,
z którym przeszliśmy gdzieś tam dalej. To była pierwsza nowość.
W ogóle audiodeskrypcja była konsultowana przez Jakoba Rossina z Estonii.
Także jeżeli ktoś śledzi, kojarzy Mastodona i anglojęzyczną społeczność niewidomych,
to nazwisko na pewno znane.
Zresztą z Jakobem się też widzieliśmy. Bardzo, bardzo miłe, szybkie spotkanie.
Druga rzecz to pojawił się chatbot na Whatsappie.
Można było dodać sobie numer do kontaktów,
Który to chatbot był pewnie jakimś chatem GPT, nie wiem,
jakimś znanym już rozwiązaniem, nakarmionym informacjami o konferencji,
czyli programem, notkami biograficznymi prelegentów,
informacjami organizacyjnymi, technicznymi.
Także teoretycznie powinien być naszym przewodnikiem po całej konferencji.
No i co się stało? No ja spróbowałem z niego skorzystać.
Moja pierwsza próba użycia tego chatbota to było tak naprawdę zapytanie go o to,
gdzie odbywa się konkretna prelekcja, w którym pokoju.
No i rzeczywiście tam podałem dość dokładny tytuł.
I on sobie poradził i rzeczywiście mi to podpowiedział.
I ten pokój nawet się zgadzał.
Przez to, że w tym prompcie nie ograniczyłem mu tego, co on ma mówić.
Napisałem mu, co prawda, powiedz mi, gdzie ma być ta konkretna prelekcja.
A on mi wysłał wszystkie informacje. Kiedy, gdzie, o co w nich chodzi, jacy prelegenci ją prowadzą i tak dalej, więc bardzo długa ta wypowiedź przyszła, łącznie chyba nawet z linkiem do programu.
No to z drugiej strony mówię, okej, skoro to jest taki chatbot i mi te wszystkie informacje przeszuka, no to siedzę sobie w metrze, nie chce mi się otwierać tej strony i tam latać po nagłówkach, no to zapytam go, a jakie już to prelekcje będą o godzinie 10?
No co, on mi wypluł parę tytułów. Jeden mnie zainteresował.
No i ja sobie poszedłem do tego pokoju, do tej sali, którą on mi wskazał,
żeby się tylko i wyłącznie przekonać o tym, że prelekcja jest na zupełnie inny temat,
a to, co on mi podał, istotnie odobędzie się, ale dnia następnego, o godzinie 12.
Tak że halucynacje w cenie, jak zawsze.
Mówię, dobrze, no to go zapytam. Już było popołudnie, już prawie się kończyły
te części prelekcyjne na dany dzień.
Zapytam go, a jakie jeszcze sesje są teraz,
aktualnie, jakie trwają?
No to mi odpisał, rzucił mi tytułem tylko jednej,
a wiem, że były trzy. Także no…
No jeszcze gdzieś tam, albo ten konkretny bot,
albo to rozwiązanie, na którym to bazuję,
no jakoś nie poradziło sobie specjalnie
albo ja nie umiem tego opromptować odpowiednio.
Natomiast no tutaj lepiej było się poosiłkować jednak programem tym, który był zamieszczony na stronie wydarzenia.
No a teraz o samych prelekcjach, szczególnie jeśli chodzi o to, co dotyczy nas, osób z dysfunkcją wzroku.
Nie było tego wiele. Zaskoczony byłem, bo rok temu nie dość, że udało mi się przeprowadzić wywiad z trzema w ogóle nowymi startupami,
Słyszałem o nich może, ale nie widziałem specjalnie ich produktów.
Tak w tym roku raczej były rzeczy, które już znamy.
Udało mi się trafić Polski Akcent na stoisko Fundacji Szansa
i tam można było zapoznać się z udźwiękowanymi szachami
oraz ze znacznikami Your Way.
Także są już te rozwiązania promowane gdzieś na skalę międzynarodową
i wiem też od osób odwiedzających, że zatrzymały się
i z zainteresowaniem się tym prezentacją przyjrzały.
Ale my te produkty już znamy.
Natomiast to coś, czego możemy nie znać,
albo wspomnieliśmy o tym kiedyś w cyfroprzeglądzie,
natomiast teraz ja miałem okazję zobaczyć to w akcji.
To był Skripor. Skripor, czyli rozwiązanie pochodzące z Rumunii
I jest to alfabet dotykowy na bazie Braille’a do oznaczania kolorów.
No i jest to rozwiązanie nietypowe, takie zastosowanie pisma punktowego,
bo tak jak Braille ma punktów sześć, tak Skrippor ma punktów dziesięć.
Przy czym…
I też sześciopunkt to jest, czy jakoś inaczej?
To jest tak chyba troszkę zaaranżowane jak klawiatura telefonu.
1, 2, 3, 4, 5, 6, 7, 8, 9 i chyba zawsze nad tym najwyższym punktem jest tak zwany punkt, ten dziesiąty punkt orientacyjny.
Czyli tak odwrotnie, jakby odwrotna ta klawiatura.
Tak, on służyłby do zorientowania, żebyśmy wiedzieli po prostu, w którą stronę na przykład tego Braila czyta, żeby nie mamy go do góry nogami na przykład, żeby go interpretować.
I każda kombinacja kropek w tym systemie odpowiada innemu kolorowi.
Jest aplikacja w ogóle, gdyby Was temat ciekawił,
Scriptor w App Store, no w Play Store pewnie też,
która Was troszkę nauczy, jak ten system interpretować.
No i przykładowo kolor biały, to są punkty 4, 5, 6
plus punkt orientacyjny nad punktem czwartym.
Bardzo jestem ciekaw, bo ja widziałem jakieś takie wydrukowane w Braillu
powiedzmy arkusze, gdzie te kolory były wyjaśnione,
Co prawda po rumuńsku, ale powiedzmy na tyle gdzieś to się pokrywa
z jakąś, nie wiem, czy łaciną, czy francuskim, którego kiedyś
próbowałem się uczyć, że dałem sobie radę.
Natomiast no nie wiem na przykład, jak bym odróżnił taki punkt
orientacyjny od punktu pierwszego. Pewnie jakaś kwestia odstępów
albo czegoś. Znowuż kolor czarny to pierwszy, drugi, trzeci,
Punkty i plus punkt orientacyjny, chyba nad punktem pierwszym.
No i tych kolorów, tych kombinacji może być dużo.
Te podstawowe barwy, typu tam żółty, czerwony,
to nie są podstawowe, bo to już są połączenia,
ale takie podstawowe, o których po prostu wiemy,
które nam przyjdą do głowy, jak mówimy o kolorach,
no to byłyby właśnie takie.
No i pytanie, do czego można by to zastosować?
Jeden przykład zastosowania twórcy rozwiązania mi przedstawili,
Mianowicie pokazali koszulki, takie t-shirty,
gdzie na rękawie były nadrukowane już takie kombinacje kropek,
bardzo dobrze wyczuwalne i bardzo trwale zrobione.
W sensie, to nie było tam jakoś naszyte,
ani jakoś naklejone tak na szybko,
tylko rzeczywiście dość stabilnie to było przymocowane.
Nie wyglądało to, jakby miało się przy pierwszym lepszym praniu zmyć
czy tam odczepić.
kombinacje punktów właśnie w skriporze,
które mają symbolizować kolor tego t-shirtu.
No i zamysł jest taki, że przy założeniu,
że wszystkie nasze ubrania są tak pooznaczane,
możemy sobie dotykowo, tak bardzo szybko,
dobierać ubrania kolorami.
A przy okazji nie rzuca się to jakoś specjalnie w oczy innym,
no bo może to być traktowane jako po prostu ozdoba.
Przecież na jakichś koszulkach, bluzkach
są różnego rodzaju jakieś wzorki,
Czasem jest coś naszyte, więc no…
jest to coś takiego standardowego.
Zgadza się. I chyba pomysł jest taki, że
my już kupujemy ubrania w ten sposób oznaczane,
a nie, że montujemy te oznaczenia sami. Tak mi się przynajmniej wydaje,
choć też nie wiem, bo
twórcy tego rozwiązania planują
w tej jesieni pojawić się na targach mody w Wiedniu. I nawet chcieli mnie tam
zaprosić, tak że zobaczymy, co będą
i czy tam jakieś współpracy nawiążą.
No ale taki mają na ten moment pomysł.
Także ciekawe rozwiązanie.
Tak powiem szczerze.
No i co prawda nie dotarłem na to stanowisko,
ale jestem w kontakcie z osobą,
która tu w Austrii dla startupu pracuje.
A mianowicie startup nazywa się Hopetech
I jest to startup pochodzący z Kenii,
który ma swoją europejską siedzibę w Londynie,
ale ma też właśnie jedną tutaj pracownicę w Wiedniu
i oni chcą stworzyć kolejne podejście
do pomocy nawigacyjnej dla osób z dysfunkcją wzroku.
Bardzo długo trwał proces w ogóle wymyślania,
w jakiej formie miałyby być,
miałoby to być urządzenie.
Czy bardziej jakiś pas,
Czy bardziej jakiś, nie wiem, kask na głowę, czy taki jakiś headset,
choćby takie jakby przypominające po prostu zwykłe słuchawki,
czy co to miałoby być. Ostatecznie, ja nie wiem, jak to wygląda,
no pada słowo headset, więc przypuszczam, że to będzie jakiś tak,
nie wiem, obręcz na głowę i po prostu coś na uszy.
To nie będzie raczej kask, taki jak na przykład był Lumen,
o którym mówiłem rok temu. I on ma na pewno podawać nam wskazówki
z Google Map, ale też jakieś przeszkody być może wykrywać.
Ja jestem w kontakcie z tą osobą tu w Wiedniu, która się tym zajmuje
i wiem, że mają ruszyć niebawem testy z użytkownikami niewidomymi,
więc myślę, że będę Was tutaj na bieżąco informował o tym,
jak sytuacja się będzie rozwijała, gdy będę już coś więcej wiedział.
Jest szansa, można taką mieć nadzieję, że skoro jest to startup w Kenii,
który jest gdzieś tam też zaoptymalizowany pod lokalny rynek,
no to też będą chcieli dotrzeć do punktu, w którym będzie to w takim przedziale cenowym,
żeby więcej osób było, no to powiedzmy, stać. Tak przypuszczam, taką mam nadzieję,
ale nie wiem, no musielibyśmy zobaczyć. Niestety, no tak się poukładały okoliczności,
że nie udało mi się spotkać z szefem całego tego przedsięwzięcia
i też niestety nie miałem w ręku prototypu.
A było bardzo blisko. No, szkoda.
Ale to nie wszystko, bo odbyła się również,
mimo tego, że w kwestii osób z dysfunkcją wzroku
moim zdaniem była dość duża posucha,
odbyła się też sesja pod tytułem
Urozwiązania IT w służbie osobom z dysfunkcją wzroku.
No i prelegentami na tym wystąpieniu byli Kibo,
O, czyli rozwiązanie, o którym mówiłem już rok temu.
Startup z Indii, oferujący takie oprogramowanie,
czy na urządzenia mobilne, czy na komputery,
które rozpoznaje po prostu pliki PDF i różnego rodzaju inne
skomplikowane pliki tekstowe i przerabia je na dostępne formaty.
Takie jakby, mam wrażenie, fine reader troszkę.
Takie trochę coś do czytania dokumentów.
Oni też jakąś taką kamerę rok temu próbowali wypromować
ze sztuczną inteligencją, łączoną chyba kamerę zresztą ze smartfonem i z apką.
Był Blind Institute of Technology, czyli to jest ta organizacja,
która na przykład w Stanach organizuje kursy Salesforce’a,
czyli popularnego na rynku amerykańskim oprogramowania CRM,
oprogramowania do zarządzania informacją o klientach.
No, czyli tak naprawdę wszystkiego, jeżeli pracujemy w jakiejkolwiek
dziale obsługi, zarządzania jakimiś danymi, rezerwacje…
Administracja, sprzedaż, księgowość, wszystko tak naprawdę w tym systemie można
sobie zawrzeć.
Tak, więc oni się pojawili, nie do końca sprecyzowali w sumie w jakim celu, bo
zaczepiono ich o to, że tak naprawdę w Europie ten salesforce nie bardzo jest
używany. Są tu inne rozwiązania i czy oni planują te kursy jakoś
dostosować, skoro są w Europie i gdzieś tutaj ewidentnie chcą się pod, chcą
zainteresować ten rynek swoimi rozwiązaniami, no to czy planują jakoś tę ofertę
Ja mam takie wrażenie, że u nich to jest problem, albo może być problem taki, że po prostu mogą szkolić z tego, co jest dostępne.
Salesforce tam naprawdę położył duży nacisk na to, żeby to było dostępne. Ja miałem okazję się trochę tym bawić i tam naprawdę, no nie mogę powiedzieć, że przeszedłem całą ścieżkę administracyjną Salesforce’em,
Bo na jakimś tam zadaniu poległem, ale to nie było zadanie pierwsze z brzegu.
Tam naprawdę udało mi się całkiem sporo zrobić.
Więc pytanie jak to w innych systemach tego typu.
Oni też to podkreślali, że po prostu nie ma drugiego systemu na świecie,
który tak wiele by dla dostępności zrobił.
Także może być ciężko, aczkolwiek przypuszczam, że takie SAP,
które jest dość popularne, zwłaszcza gdzieś tam właśnie Niemcy, Austria,
Ja w tym obszarze, nie wiem na ile w samej Polsce, jak w Polsce, wiem, że można w Polsce znaleźć pracę
przy administracji SAP-em, ale no to raczej w niemieckich firmach…
Tu już chociażby Biedronka SAP-em stoi.
O, a tu widzisz.
No to tutaj jakieś opcje są.
Z jednej strony są jakieś skrypty do JOS-a, z drugiej strony SAP jest też pewną podstawą,
Pewnym frameworkiem, w którym można jakieś aplikacje
dostosowane pod konkretne przypadki użycia tworzyć.
I to też może być dostępne.
Miałem okazję się czemuś takiemu przyglądać.
No, jest to dostępne, ale klawiszologia tego jest iście specyficzna.
Bo tam na przykład pewne rzeczy wywołujemy dość nietypowymi klawiszami.
Każdą rzecz można na milion sposobów rozwinąć,
wejść w szczegóły, szczegółów, szczegółów.
Oj, oj, to jest ciężki kawałek chleba, no.
Jest pole do popisu dla tych, którzy chcieliby z tego szkolić.
Ale sam SAP, to nie jest, wiesz, to nie jest domena tylko
przypadków użytkowników niewidomych, że ten system jest inny.
No przypuszczam.
Tak mówiąc bardzo delikatnie, to użytkownicy, którzy
się gdzieś tam, powiedzmy, mają stykać z tym systemem,
Także i administratorzy. Kiedyś nawet spotkałem się z takim
typem, z taką, z taką opinią, że są administratorzy IT
i jest inna jeszcze grupa administratorzy SAP.
To, że to, że to po prostu są ludzie, którzy mają już naprawdę
bardzo specyficzną, bardzo konkretną wiedzę, bo tam się, jak coś można
zrobić inaczej, to się tam robi inaczej.
No z SAP-a można zrobić przecież całe poniekąd studia podebranowe.
Także o czym mówimy. No ale okej, to był BIT.
Natomiast coś, co chyba rynkiem u nas może wstrząsnąć, w zależności od tego,
w jakiej formie to wejdzie, jeśli wejdzie, no to był występ pana CEO firmy Aira.
Czyli już niejednokrotnie wspominana asystencja osobista, wideo,
zprofesjonalizowana, czyli w dużym skrócie to, co robi Be My Eyes,
tylko z zatrudnionymi, wyszkolonymi do tego celu tak zwanymi agentami,
których obowiązują już konkretne umowy. To oznacza mniej więcej tyle,
że po pierwsze, no my musimy za to zapłacić i płaci się za konkretne minuty,
za pakiety minut dostępu do takiej usługi, ale po drugie, oni posiadają już
u nas pewne różne dane, które ułatwiają taką komunikację na przyszłość,
jakieś tam notatki swoje mogą prowadzić pewnie też w systemie,
żeby już nasze pewne preferencje w różnych kwestiach znać.
Po drugie, no pracują, więc po prostu mają pewne obowiązki pracy,
takie jak na przykład, no nie mogą wycofać się z jakiegoś zadania,
chyba, że tam wiedzy nie mają, ale powiedzmy pomagają w jakiejś
nawigacji nawet po mieście, w jakimś prowadzeniu,
poza przejściem przez ulicę. Wtedy po prostu się informują
takiego użytkownika, że no tu nie możemy, tu Pan musi podjąć decyzję, czy Pani
samodzielniej przejść. Po trzecie, no przez to, że są zatrudnieni i obowiązują
ich przeróżne umowy o tajności i tak dalej, no można by zaryzykować powierzenie im nawet
takich bardziej wrażliwych danych, więc jeżeli potrzebujemy skonsultować
jakąś dokumentację medyczną, jakieś numery kart płatniczych,
których nie możemy sami przeczytać, czy jakieś inne bardzo, bardzo wrażliwe dane,
no to w teorii przynajmniej taka firma poczuwa się do jakiejkolwiek odpowiedzialności za te nasze dane,
no więc można by jej jakoś tam zawierzyć.
To tu otwiera duże możliwości w kwestii na przykład asystencji w miejscu pracy również i tak dalej.
No plus to, że AIRA również zainwestowała ostatnio w jakieś AI, no i to AI tam również jest.
No i przedstawiwszy ten projekt, pan CEO powiedział, że szukają partnerów Unii Europejskiej.
Co jest nowością, bo ja jeszcze chyba półtora roku temu czy dwa lata temu słuchałem różnych wywiadów z przedstawicielami tej firmy
i kiedy byli pytani o dostępność w różnych językach oprócz angielskiego, to te odpowiedzi były bardzo zdawkowe,
że mamy jakichś agentów, którzy znają hiszpański, no bo w Stanach hiszpański to jest tak naprawdę drugi język poniekąd.
No, no francuski do Kanada, no i tak zasadniczo to w sumie nie, na razie jakoś tak nie bardzo.
No, to już była konkretna deklaracja. Zainteresowani są tym, żeby tutaj w Unii się jakoś rozwinąć.
Powiedzieli nawet, że będą, ich plan na to, jak ten biznes tu rozwinąć jest taki, żeby zatrudniać tych agentów
lokalnie w tych krajach, w których będą chcieli uruchamiać usługę.
Czyli to nie będzie tak, że oni zatrudnią polskojęzycznych agentów w Stanach,
bo tam mają najłatwiej, bo już mają zbadany rynek, tylko będą się starali tych agentów
pozyskiwać lokalnie w danym kraju. No, żeby te osoby były bardziej w kontakcie
z realiami życia w danym kraju, żeby były… No, przede wszystkim ten język oczywiście
też miały na bieżąco i go po prostu znały dobrze. Pewnie tutaj też nie bez znaczenia
To nie jest kwestia stref czasowych, no i różnych takich też niuansów,
które mogą być pomocne, jeżeli pomagamy osobie właśnie czy w Polsce,
czy tutaj w Austrii, czy gdziekolwiek indziej. Także to jest na pewno
jedna ze strategii. No i żeby troszkę zwieńczyć tę premierę taką europejską,
powiedzmy, czy tych ambicji europejskich startupu AIRA na czas trwania konferencji
dla osób, które AIRA posiadają już zainstalowaną.
Dostęp do AIR-y był darmowy na terenie lotniska w Wiedniu.
Także no, pierwszy hotspot z darmową AIR-ą w Europie się już na chociażby krótki czas pojawił.
Bo oni w ten sposób działają zresztą też, jeżeli udostępniają coś darmowego,
to udostępniają bardzo często na jakimś konkretnym obszarze.
Jeżeli się dogadają z jakąś instytucją, to wtedy…
Dużo lotnisk w ten sposób działa, Starbucksy w ten sposób działają.
Hotele zdaje się jakieś też.
Hotele i chyba któreś sklepy, Target, czy któreś takie amerykańskie sklepy
ze spożywką chyba, że można po prostu chodzić po supermarkecie
i z takim asystentem i tam prosić.
No są na smartfony, są na różnych okularach, zdaje się, że na Meta.
Na komputery też są.
Też są i potrafią nawet chyba podglądać ekran właśnie komputera
i tam, nie wiem, czy sterować też.
Sterowanie chyba idzie przez ten RIM, nie? Przez Remote Incident Manager?
Zdaje się, że tak, ale…
Chyba mają jakąś współpracę. Także, no, zobaczymy.
Jeżeli to wejdzie, to pytanie oczywiście w jakich cenach i czy nas, czy będziemy w stanie
usprawiedliwić, bo to czy będzie stać, to jest kwestia indywidualna, ale czy będziemy
w stanie usprawiedliwić koszt, wliczywszy różne inne nasze wydatki na życie,
Koszt tego typu usługi w naszym miesięcznym budżecie.
Czy wygra to z Be My Eyes, tak? Bo to mamy za darmo.
Zgadza się. Także zobaczymy. Jeśli chodzi o Zero Project, zasadniczo to jest chyba tyle.
To ja proponuję, Pawle, żebyśmy postawili tu kropkę, tak?
Bo mamy już trochę kolejkę osób, które chciałyby coś powiedzieć,
więc tę kolejkę spróbujmy troszkę rozładować.
Na dobry początek odbierzemy telefon. Wojtek jest z nami. Dobry wieczór.
Tak, jestem. Cześć.
Cześć. Słuchamy.
Dobry wieczór.
Mnie natchnęło jeszcze to, co Paweł mówił w zupełnie temacie obok,
a potem powiem o tym, z czym dzwonię.
Temat obok jest taki, że jakiś czas temu mówiliście zresztą o tym,
Czy ktoś ze słuchaczy mówił, że w ICO jest teraz taka możliwość,
żeby pozyskać dane karty debetowej czy kredytowej włącznie z tym
trzycyfrowym numerem CVV? I tu jest ciekawa możliwość,
ponieważ karty generowane przynajmniej w ICO, pewnie to będzie upowszechniane
w innych bankach albo już nawet jest, już tego numeru po prostu
nie mają trzycyfrowego, więc w momencie, kiedy zgubimy kartę,
to oczywiście ktoś, kto ją znajdzie i zachowa się nieuczciwie,
może sobie wyciągnąć zbliżeniowo jakieś tam pieniądze albo zapłacić,
ale w internecie nie kupi już niczego,
ponieważ takie nowoczesne karty tego numeru nie mają.
I teraz jak to się odbywa?
Generujemy sobie taki numer CVV w aplikacji
i on jest ważny, uwaga, tylko chyba do 12 godzin.
I my sobie tym numerem możemy coś w internecie za to coś zapłacić.
Ale moje pytanie było takie, no dobrze, okej, a jeśli to jest płatność cykliczna?
Albo jakaś płatność, nie wiem, załóżmy zapłacę za hotel,
a potem narobię bałaganów w hotelu i hotel będzie chciał mi z karty ściągnąć.
To co, wtedy powie bank, no przepraszam, już numeru tego nie ma CVV, do widzenia? Nie.
Bank będzie pamiętał te numery, które wygenerował
i te płatności, które się zainicjowały w ciągu tych 12 godzin i jeśli będzie to ten sam podmiot
i w jakiś sposób będzie powiązany, ja też do końca nie znam tego mechanizmu,
ale jeżeli na przykład kupiliśmy sobie, nie wiem, subskrypcję czegoś, załóżmy Spotify’a,
to on co miesiąc będzie spokojnie sobie ściągał z tej karty, z tego numeru.
Także moim zdaniem superpozytywna sprawa dla nas, ale też po prostu dla bezpieczeństwa naszych płatności.
Dokładnie, dokładnie. Skończą się te kwestie wycieków różnego rodzaju, a przynajmniej przestaną być aż tak bardzo dotkliwe, że jakieś tam dane kart wyciekają, bo jest jeszcze potrzebny ten numer za każdym razem i trzeba podać ten właściwy.
Tak, inna sprawa.
Mieliśmy nadzieję, że to upowszechni też opcję pokazywania danych w apce, bo mBank już to robiło od jakiegoś czasu.
Tam rozwiązane było to tak dla bezpieczeństwa, że te dane wrażliwe się pokazywały tylko przez kilkanaście sekund i znikały automatycznie.
Natomiast jest to jeden z niewielu banków, które testowałem, czy w ogóle fintechów aplikacji jakiejkolwiek bankowości online, które to robiły.
Mój austriacki bank na przykład nie pokazuje.
Często jest jednak tak, że jesteśmy w awangardzie tych innowacji.
W Hiszpanii na przykład. Ja nie wiem, teraz właśnie tam będziemy,
to zobaczymy, jak to jest. Ale ja jeszcze do niedawna pamiętam,
jak się podpisywało każdą transakcję.
Także nie do wyobrażania tutaj, nawet 15 lat temu.
Ale myślę, że super właśnie innowacja.
I powiem, że tak na dobrą sprawę, to przy tych współczesnych warunkach,
to na dobrą sprawę, jak przyjdzie Ci karta bankomatowa,
to możesz sobie ją trzymać w tej kopercie i w ogóle jej nie otwierać.
I chyba nawet mi się to przez pomyłkę zdarzyło,
bo tam nie ma czegoś takiego, że potwierdzasz, że jest odbiór
Mówi, że jak nie odbierzesz go tam któregoś, to on ci będzie, nie wiem, generował jakieś komunikaty i co to jest i że ta karta wygaśnie.
To ta karta po prostu nic szczególnego nie zawiera. Ona jest tylko po to, żeby można było pójść do sklepu i fizycznie przyłożyć ją i zapłacić.
A na niej nic w zasadzie nie ma, co mogłoby posłużyć do jakichś szczególnych operacji.
Trzeba ją po prostu aktywować, ale aktywować równie dobrze można, ładując ją do Apple Pay
chociażby czy Google Pay.
Tak, tak i naprawdę fajnie się to robi, bo ja czuję o wiele większe bezpieczeństwo
posługiwania się tym i o wiele większą kontrolę nad tym, co się dzieje.
I to jest sprawa pierwsza, a niejako jest to świetne przejście do sprawy drugiej,
A mianowicie kwestia bezpieczeństwa, bo w minionych kilku odcinkach
sporo była mowa często o różnego rodzaju zagrożeniach
związanych z tym, że są oszuści, którzy wysyłają maile.
I chciałem się podzielić czymś, co myślę, że jest ważne bardzo w tym kontekście.
A mianowicie zdarzyło się nam słuchać takiego ośmioodcinkowego podcastu
wyprodukowanego przez dział podcastów tygodnika The Economist.
To się nazywa Scam Inc.
I podcast jest bardzo ciekawy.
Chyba pierwsze trzy odcinki nie są za paywallem,
więc jeżeli znacie język angielski,
to warto nawet te trzy odcinki posłuchać.
Jest to na pewno próbka najlepszego dziennikarstwa.
Autorka zwiedziła wiele krajów
i poznała zakamarki tego biznesu ogromnego.
bardzo takiego rozpraszonego biznesu,
ale którego wartość szacuje się, jeśli dobrze kojarzę,
to na 500 miliardów dolarów rocznie.
I to właściwie wszystkie strony są tam pokrzywdzone,
bo nie tylko osoby, które padają ofiarom tego procederu,
ale też te osoby, które są po drugiej stronie,
czyli skłaniają potencjalnie nas do tego,
żebyśmy coś gdzieś zapłacili.
Tak, bo te osoby to pracują za naprawdę bardzo małe pieniądze, a niekiedy są zmuszane do tego.
Albo wręcz są niewolnikami i są całe takie po prostu skupiska tych zakładów spammerskich.
Wręcz niektóre kraje, tam był podany przykład Filipin, że to są po prostu państwa, które tak jak kiedyś były upadłe państwa
karteli narkotykowych, tak właśnie Filipiny są na skraju bycia upadłym państwem z powodu skamerów, którzy po prostu tyle na tym zarabiają, że udało im się w dużej mierze przejąć te instytucje.
Ale to jest wszystko bardzo ciekawe, a można sobie zadać pytanie, no dobrze, ale co z tego wynika dla mnie, dla przeciętnego użytkownika?
Myślę, że dobrą stroną dla nas jest to, że jednak język polski
to nie jest tak popularny język jak chiński,
gdzie jest masa ofiar skamerów, angielski czy hiszpański.
Ale niemniej i tak powinniśmy się strzec tego.
Natomiast bardzo dobra była konkluzja tego całego podcastu
i myślę, że wszystkim to polecam.
Dwie sprawy. Po pierwsze, jeśli chodzi o wszystko, co się dzieje online,
Powinniśmy podchodzić z bardzo dużym brakiem ufności,
z bardzo dużą nieufnością do tego, co się dzieje,
sprawdzać po pięć razy.
I to jest jedna strona medalu może bardziej oczywista dla wszystkich,
ale druga strona medalu dotyczy kontaktów naszych offline.
Że lekarstwem na to…
Oczywiście będą jakieś tam działania, nie wiem, rządowych, instytucji,
Ludzi dobrej woli, że tak powiem.
Ale tak dla nas najlepszym lekarstwem jako zwykłych użytkowników
jest właśnie dokładna odwrotność tego, co się dzieje online.
Czyli właśnie więcej zaufania, więcej kontaktów społecznych,
z sąsiadami, z naszymi znajomymi, przyjaciółmi.
Jeżeli coś się dzieje, to właśnie mówić, dzielić się tym.
U mnie w rodzinie właśnie jest taka sytuacja,
że jest osoba, która nie jest może jakaś bardzo starsza ode mnie,
powiedzmy, ze 20 lat, ale zawsze do mnie dzwoni z pytaniem,
że słuchaj, jest taka i taka sprawa. Czy uważasz, że to jest oszustwo?
Ja nie mam monoporu na wiedzę, ale samo to, że zadzwonicie do kogoś
i się zapytacie, że będziecie musieli przeformułować to,
co otrzymaliście, ten komunikat, może już wam nasunąć podejrzenie,
To jest absurdalne. A w momencie, kiedy trzymamy to wszystko dla siebie, to może się okazać, że padniemy ofiarą takiego oszustwa.
A powiem, że też taki wniosek bardzo ważny z tego podcastu jest taki, że nie możemy myśleć, że my jesteśmy mądrzejsi o tych oszustwach. To jest nieprawda.
Absolutnie. To jest właśnie racja. Jeszcze jakiś czas temu to można by było pomyśleć, że okej, że my to w sumie jesteśmy bardzo łatwo w stanie odróżnić.
Co jest fałszywką, co jest rzeczą taką rzeczywiście wiarygodną, rzeczą prawdziwą. Jak ja obserwuję to, co mi zaczyna przychodzić na skrzynkę pocztową,
To jakie wiadomości, jak to wszystko zaczyna być naprawdę dobrze napisane i jak to zaczyna coraz bardziej wiarygodnie wyglądać, to to jest naprawdę rzecz przerażająca.
A jeszcze a propos tego, jak mówiłeś Wojtku o tym, że warto powiedzieć i warto gdzieś tam się dzielić takimi historiami.
Ja ostatnio słuchałem sobie na YouTubie takiego, takiej rozmowy. Jest taki kanał nie dla skamu. Ja polecam, żeby sobie gdzieś tam ich zasubskrybować.
Oni publikują różnego rodzaju rozmowy z oszustami. Oni przede wszystkim się specjalizują w tych oszustach, oszustwach tak zwanych inwestycyjnych, czyli że
Panie Michale, oni mają dane, bo często te dane krążą.
Była taka rozmowa z takim, no już słychać, że starszym panem. Starszym panem, który chciał być mądrzejszy od wszystkich i to było…
Mi się naprawdę autentycznie zrobiło go szkoda, bo on zawsze twierdzi, że on jest ostrożny.
On jest ostrożny, bo on wszystkie rachunki płaci na poczcie.
Nie, on wszystko tutaj gdzieś tam, powiedzmy, nigdzie przez internet, nie, jak on na Allegro kupuje, to on płaci zawsze za pobraniem, żeby go nikt nie oszukał.
No a dał się wciągnąć w taką inwestycję, dlaczego? A no dlatego, że polecił mu to Wojciech Cejrowski.
O Boże.
No, także oczywiście Wojciech Cejrowski nie miał z tym absolutnie nic wspólnego.
Ale też to jest bardzo ważna rzecz, że nam się właśnie wydaje, że my jesteśmy stosunkowo młodzi,
to my nie jesteśmy na to tak bardzo narażeni, jak nasi rodzice.
Otóż to jest nieprawda, bo są dane, które pokazują,
że właśnie to nie jest prawda, że głównie seniorzy padają ofiarom tych oszustw.
Nie, głównie padają osoby młode ofiarą tych oszustw,
ponieważ mamy, jako osoby młodsze, bardziej różnorodne aktywności,
więc jest statystycznie częstsza szansa na to, żebyśmy zostali na to złapani.
A każdy z nas, każdy, wszyscy, mamy jakiś czuły punkt,
w który można nas uderzyć.
Rzeczywiście bardzo dużo ludzi jest uderzanych w czuły punkt
pod tytułem samotność.
I tam była rozdzielająca serce historia faceta,
który zaczął korespondować niby oczywiście z fałszywą,
jakąś chińską modelką, trzydziestotrzylatką,
która miała facet w około siedemdziesiątki.
I okazało się, że on miał możliwość tego uniknąć, bo akurat go złapała na tym babka, która zajmowała się właśnie przeciwdziałaniem tego typu oszustwom.
Ale on był tak samotny, że on powiedział, że ja rozumiem, że pewnie masz rację. Ale jest cień możliwości, że ona jednak przyleci jak zapłacę te pieniądze.
Wojtku, Wojtku, sytuacja z naszego polskiego podwórka, którą publikowało, bo też Radio 357 opublikowało swego czasu taki reportaż w kilku odcinkach dotyczących właśnie skamu.
I jednym z bohaterów tej audycji był właśnie też pan, co ciekawe studiował ekonomię, poruszający się na wózku i który też padł właśnie ofiarą takiej osoby,
Takiego skamera, który najzwyczajniej w świecie grał na tych uczuciach.
On szedł w jakieś kredyty, naprawdę stracił oszczędności życia i jeszcze ma bardzo wiele pieniędzy do spłacenia.
Tak i jeszcze jedna ważna sprawa. Mnie to uniknie, ponieważ ja nie mam pieniędzy.
Nie martw się, nie musisz mieć pieniędzy. Jeżeli będzie taka okazja, że będzie dało się Ciebie oszukać,
Pożyczysz od rodziny, z banku, chwilówkę weźmiesz.
Tam były podawane przykłady ludzi, którzy na 100-200 tysięcy dolarów zaciągnęli kredyty.
Wszędzie, u wszystkich, naokoło. I to nie była właśnie babka taka,
był jej przykład podany w tej pierwszej części.
To była babka ze stopniem doktora, która pracuje w jakiejś takiej
bardzo zaawansowanej dziedzinie. No ale właśnie, czy samotność,
Każdy ma z nas potencjał bycia oszukanym.
I musimy bardzo pokornie do tego wszystkiego podchodzić,
bo jesteśmy zagrożeni.
W tym momencie na przykład, nie wiem, mój głos,
czy tutaj wszystkich, jak teraz rozmawiamy,
jest tyle próbek tego głosu,
że właściwie jeżeli ktoś do nas zadzwoni i mówi głosem naszym,
to już nie powinniśmy temu ufać.
Może sobie ustawić jakieś hasło, jakieś pytanie z rodziną, to jest też dobra podpowiedź.
No i przede wszystkim nie reagować na coś, co się dzieje nagle.
Dokładnie, właśnie tym punktem, jeżeli ktoś mówi, że coś trzeba zrobić już, że teraz, że nie ma czasu, że po prostu trzeba w tym momencie, to absolutnie tego należy unikać.
Nie jesteśmy mądrzejsi od nich, bo to jest 100 tysięcy podmiotów
o łącznym zysku 500 miliardów dolarów.
To jest takie porównanie, że to tak jakby sprzątać pod tsunami mopem.
Można sobie zatknąć palcem jakąś dziurę, ale oceanu nie zatkniemy palcem.
I my będziemy wiedzieli o 55 tysiącach sposobów,
ale będzie ten 55-tysięczny pierwszy sposób, którego nie znaliśmy.
Tam był podawany przykład faceta, który był dyrektorem zarządzającym
banku takiego społecznościowego. Gdzieś w Stanach, już nie pamiętam,
w którym to stanie było, ale facet na tych skamach
przewalił 49 milionów dolarów oszczędności tych ludzi,
po prostu tej lokalnej społeczności. I on potem był przed sądem
I on właściwie też był ofiarą, oczywiście.
No ale niestety przepisy są takie, jakie są.
I mimo tego, że to było wykorzystanie też jego w jakiś sposób,
no to dostał te 25 lat, czy tam ileś.
No pewnie nie wyjdzie do końca życia.
Facet oczywiście z wieloma kursami, MBA-mi.
Bardzo mądry, rozsądny facet.
I on przed sądem powiedział, no bo w końcu się sędzia go zapytał,
no ale dlaczego pan to zrobił?
I on powiedział, że do końca życia będzie się zastanawiał,
jak to się stało, że on to zrobił.
Mało tego, że dwa miesiące po tym, jak on już został zdemaskowany,
ten cały proceder, on dalej wierzył w te bzdury, które mu tam natłukli do głów.
Więc naprawdę nie ma na to mądrych.
Jedyne, co nas zabezpiecza, to są właśnie kontakty międzyludzkie,
żeby ktoś nas po prostu w pewnym momencie złapał za rękę i powiedział
zatrzymaj się, nie rób tego, może to jest podejrzane, sprawdź to jeszcze raz.
Nic innego chyba nas nie zabezpiecza.
To prawda, aczkolwiek niestety ja z własnego doświadczenia muszę powiedzieć, że ja próbowałem ostrzegać jedną z osób, jedną z osób niewidomych zresztą, która absolutnie, totalnie to zignorowała.
Nie wiem naprawdę jak w takich sytuacjach po prostu, jak ludzi ostrzegać, bo tłumaczenie, że to jest podejrzane.
A to jeszcze były te czasy, kiedy to wszystko było bardzo, bardzo oczywiste.
Dzwoni człowiek naprawdę z totalnie obcym akcentem, że tu instalujemy oprogramowanie do kontroli zdalnej,
Bo tu trzeba będzie wysłać jakiś tam przelew. Przelew przez teamviewera, tak?
No to już po prostu wiadomo, że to czuć oszustwo na kilometr. Nie, nie.
Bo będzie można zarobić jakieś pieniądze. No i niestety.
Ale to jest właśnie ta słabość. To może być samotność, to może być chciwość.
Tych słabości każdy z nas ma coś. Dlatego trzymajmy się razem i to jest jedyne co możemy zrobić.
I może unikniemy chociażby jakiejś dużej wtopy.
Małe pewnie będą się zdarzały, ale chociażby dużej może uda się uniknąć,
czego wszystkim życzę.
I po prostu bądźmy otwarci też na to, że właśnie ktoś do nas dzwoni,
znajomy, przyjaciel i mówi nam, nie idź tą drogą,
bo nie ma mądrych na to.
Tylko takie więzy międzyludzkie mogą nam pozwolić
Przynajmniej największych w TOP się ustrzec.
A to co na pewno warto zrobić na dzień dobry to zainstalować sobie aplikację Orange Telefon.
Ona jest bezpłatna w przeciwieństwie do wielu, wielu innych aplikacji, które też robią podobne rzeczy.
Ale ona się sprawdza. Ona się sprawdza coraz lepiej. Oczywiście wiadomo, że to nie jest remedium na wszystko.
Warto te aplikacje zainstalować i ustawić automatyczne odrzucanie połączeń, które ta aplikacja zidentyfikuje jako albo marketing, albo jako niechciane. To jest rzecz jedna. Rzecz druga, i ja to robię od pewnego momentu zawsze, jeżeli znajdę jakiś numer, który jest podejrzany, to ja to po prostu zgłaszam. Tyle mogę zrobić i rzeczywiście widzę, że coraz mniej tych telefonów zaczyna się pojawiać.
Ale czy możesz powiedzieć, bo ja o tym w ogóle nie słyszałem,
czy nie będąc abonentem sieci Orange,
taką aplikację można zainstalować?
I to działa tak, że jak się na iPhone’ie zainstaluje,
to on jakoś sam będzie te połączenia
wstukiwał w tej czarnej liście.
Właśnie połączenia telefoniczne i jeżeli ktoś do Ciebie zadzwoni z tego numeru, to trzeba oczywiście wszystko powłączać i to się nie wydarzy z automatu, trzeba tam nadać odpowiednie uprawnienia, ale jeżeli to wszystko włączysz, to w tym momencie jak zadzwoni ktoś do Ciebie z tej listy, którą Orange Telefon ma w swojej bazie, tych numerów właśnie telemarketingowych albo niechcianych, to po prostu to połączenie zostanie odrzucone.
Będziesz je miał w rejestrze jako połączenie nieodebrane, ale przy okazji będzie taka dotacja, że tu ta aplikacja wykryła je jako niechciane.
Aha, no to jest bardzo dobre, bardzo dziękuję, bo ja o tym w ogóle nie słyszałem.
A warto, naprawdę warto sobie to zainstalować, bo po prostu człowiek ma trochę więcej spokoju.
Tak, bo często ludzie mówią, ja nie odbieram po prostu telefonów z nieznanych numerów,
Ale ja niestety nie mam takiej sytuacji komfortowej, że mogę sobie na to pozwolić, bo klient może zadzwonić z nieznanego na mnie numeru i powinien się cieszyć w sumie, jeżeli to jest porządny, uczciwy klient, bo to jest nowy klient znaczy się.
Oczywiście, że tak.
Także Orange Telefon to natychmiast po zakończeniu naszej rozmowy to zainstaluje. Bardzo dziękuję za tę wymianę i myślę, że właśnie tym jesteśmy silniejsi, im więcej możemy się wymieniać tego typu protipami.
To dziękuję wam za uwagę. Pozdrawiam i dobranoc.
Dzięki Wojtku za telefon do usłyszenia. Pozdrawiamy cię serdecznie. I jeszcze, zanim przejdziemy do kolejnego tematu, to Marcel chciałby nam coś ciekawego przekazać, prawda? Dobry wieczór.
Witam serdecznie. Mam nadzieję, że jestem jakkolwiek słyszalny.
Jesteś.
Okej, generalnie rzadko, kiedy dzwonię na żywo,
ale to jest właśnie ten moment, kiedy stwierdziłem,
że warto tym powiedzieć.
A przychodzę do Was z rozwiązaniem dla wszystkich tych,
którzy chcieliby mieć Shazama niekoniecznie na telefonie.
No bo to, że jest aplikacja w Google Play,
to, że jest aplikacja w…
nie pamiętam teraz jak się nazywa ten iPhone’owski sklep.
App Store.
O właśnie.
No to wszyscy wiemy.
Ale ja na przykład miałem taki problem, że przez wiele, wiele lat często,
no ja generalnie różne rzeczy też zgrywam i tak dalej,
trafiłem na fajne utwory, tudzież albo w radiu, albo gdzieś tam na kasetach
magnetofonowych w innych miejscach, no ale nie było za bardzo jak tego
sprawdzić, bo na przykład telefon leżał gdzieś tam, zanim bym go znalazł,
zanim odpalił tę aplikację i ja w telefonach biegły nie jestem, nie byłem
i raczej nie wygląda, żeby to się miało zmienić, więc zawsze mi ta chwila
zejdź, a piosenka może się już na przykład skończyć.
I teraz, zawsze chciałem to robić z poziomu komputera, natomiast niestety
nie mogłem znaleźć żadnego rozwiązania, aż do mniej więcej ubiegłego tygodnia,
bo stwierdziłem, że sprawdzę najpierw, ale szadzam.
Jedyną swoją wersję, jaką oferuję dla komputerów PC, no to jest wtyczka do
Chroma, która pozwala nam identyfikować na przykład to, co aktualnie grano w
przeglądarce, typu YouTube i tak dalej, no co w żaden sposób mnie nie ratuje.
Można by się bawić ewentualnie w jakieś wysyłanie strumienia do serwera,
strumienia audio, w sensie odkierowywania tego kombinacji,
ale wiadomo, nie każdy ma na to energię
i nie każdemu by się też chciało, mi się na przykład by nie chciało.
No i w zasadzie myślałem o tym, żeby zainstalować sobie Androida
na komputerze, natomiast to znowuż jest duże zachodu.
Więc tak stwierdziłem z głupia France, wpiszę sobie Shazam w Microsoft Store
I samego Shazama mi nie znalazło,
ale znalazło mi aplikację, która nazywa się, już Wam powiem,
Shara Music Discovery Song Finder.
To jest aplikacja dostępna w Microsoft Store.
Jest to aplikacja kompletnie darmowa,
bez żadnych wymaganych dodatków czy wewnętrznych płatności.
Aplikacja jest w zasadzie bardzo prosta.
Składa się z jednego głównego okna,
w którym mamy w zasadzie trzy przyciski.
Pierwszy to jest Recognize the song playing in ambient environment.
Ten przycisk tłumaczony na polski znaczy mniej więcej
rozpoznaj to, co słychać u ciebie w tle.
I to zbiera nam audio z mikrofonu.
Obok tego mamy drugi przycisk, który nazywa się
Recognize the song which is playing in your PC.
I to zbiera nam, co jest bardzo fajne,
Dźwięk z loopback’u, czyli jakby z karty dźwiękowej.
To, co słyszymy w słuchawkach czy na głośnikach, aplikacja sobie zbiera.
Jak rozumiem, od razu wejdę w słowo i zapytam, z domyślnej karty, tak?
Tak, z domyślnej karty.
Okej.
No i ona sobie zbiera, rozpoznaje.
Następnie jest przycisk History Search, który wyświetla nam historię wyszukiwań różnych utworów,
które gdzieś tam szukaliśmy wcześniej.
Coś typowo takie, jak jest normalnie w Shazamie tym mobilnym.
I to w zasadzie jest całe okno aplikacji.
I teraz stwierdziłem, że zadzwonię w ten sposób,
bo przy okazji zademonstruję, jak to wygląda.
To ja proponuję, żeś włączył oryginalny dźwięk jeszcze,
bo chyba nie masz włączonego.
To musiałbym chyba spróbować odpalić z…
Chyba, że chcesz udostępnić…
Aaa, okej, no to jak z przeglądarki jesteś, to się nie uda.
Chyba, że chcesz udostępnić okno.
Nie mam pojęcia, jak to zrobić, szczerze mówiąc.
Ale dobra, to poczekaj, to ja spróbuję się do Was dostać normalnie.
I zaraz pokażę, jak to wygląda.
To w takim razie, Marcelu, to my przejdziemy sobie do następnego tematu,
do kolejnej konferencji, a ty próbuj się z nami tu połączyć już faktycznie
klientem Zooma, skonfiguruj sobie wszystko.
I wtedy będziemy dalej kontynuować, bo to rzeczywiście bardzo ciekawa aplikacja.
Dobrze, to teraz Ty sam.
Musisz to się przywitam szybko.
O, cześć Paulino.
Dzień dobry.
No to teraz…
A mnie teraz słychać?
Słychać Cię Pawle, słychać jak najbardziej.
Okej, nie, bo chciałem tylko powiedzieć, że tutaj to co Marcel zaproponował
przypomniało mi o kolejnej drobnej rzeczy, która się gdzieś tam wydarzyła,
ale jako, że już poniekąd o niej mówiłem, no to nie widziałem sensu wrzucać tego w notatki.
Mianowicie, zaktualizował się ostatnio znowuż Ether
i oprócz tego, że doszły tam nowe czynności na pokrętle
i ogólnie autor, dostępność widzę, że mocno idzie.
To rozszerzył już opcję automatycznego szazamowania
na wszystkie stacje, czyli nie tylko stacje w naszych ulubionych,
ale każdą jedną stację, jaką sobie nawet znajdziemy w wyszukiwarce,
czy tam gdziekolwiek indziej odpalimy,
możemy poddać szazamowaniu.
I to wygląda tak, że rzeczywiście na ekranie odtwarzania
jest pole wyboru, szazam.
I my możemy je zaznaczyć i wtedy
tam, gdzie normalnie pojawiałyby się tytuły piosenek z streama,
z metadanych, które podaje stacja,
to pojawią się one na podstawie Shazama.
I testowałem, czy to rzeczywiście działa.
I to mnie przywiozło do takiej myśli,
ja nie wiem, jak to często się odświeża,
ale przypuszczam, że jako, że to jest Shazam
i to jest tam wszystko z Apple’em powiązane,
to pewnie ten stream leci cały czas
i to rozpoznawanie jest w czasie w jakimś sensie rzeczywistym.
To znaczy, on potrzebuje chwili, żeby zidentyfikować piosenkę,
ale transmisja dźwięku do szazama po prostu sobie leci.
No to mając do dyspozycji odtwarzacz radiowy,
który cały czas szazamuje,
możemy uskuteczniać takie pomysły, jakie ja kiedyś miałem,
czyli wystawić sobie jakieś fajne mikrofony na zewnątrz, na balkon,
jeżeli mamy taką możliwość, albo przez okno.
Jeżeli mieszkałem przy jakiejś dość ruchliwej ulicy,
niech dźwięk z tych mikrofonów jest łapany na jakimś naszym,
nawet w domu wewnętrznym, tam streamie radiowym, który my sobie do etera dodamy.
I niech ta opcja, nie blokując tam jednocześnie mikrofonu i oczywiście
no, my możemy dalej sobie, prawda, robić cokolwiek na telefonie,
szalamuje to, co słychać u nas, to, co nam przyjeżdża obok.
I można w ten sposób sobie popatrzeć, zrobić playlistę z wszystkiego,
co przejechało nam koło domu.
Albo jak mamy sąsiadów o nietypowym guście muzycznym,
to możemy poznać naprawdę ciekawe rzeczy.
W moim przypadku akurat ostatnio tak było. Budzę się, słuchajcie, rano i słyszę jakieś dźwięki bałkańskie czy jeszcze jakieś zupełnie inne, ale w każdym razie naprawdę bardzo egzotyczne.
Aż żałowałem, że sobie tego nie szazamowałem, bo jeszcze trochę za bardzo zaspany byłem. Ale to faktycznie ciekawa sprawa.
Podobnie, to znaczy, ja myślę, że gdyby w moim dawnym mieszkaniu,
jeszcze jak mieszkałem w Innsbrucku, w taką letnią, ciepłą noc,
wypuścić takiego szazama przez okno,
to mielibyśmy The Best of Turcja, Bałkany,
muzyka arabska wymieszane jeszcze na przykład ze słowackim hip-hopem, bo czemu nie?
No to mogłoby być naprawdę ciekawie.
Polecam tak sobie spróbować kiedyś, zwłaszcza, że mówię,
Teraz mamy aplikację do tego, żeby takie rzeczy rzeczywiście robić.
A tymczasem Marcelu, czy ty jesteś gotowy?
Mam nadzieję, że teraz będzie poprawnie.
No to super.
Słychać, że słychać poprawnie.
Z oryginalnym dźwiękiem i tak, jak być powinno.
Okej, tak więc…
Wybrałem jakiś tam losowy utwór, mam nadzieję, że za iksy nas nie skoszą,
bo troszkę nie miałem nic pod ręką takiego…
Wiadomo, odkieruję tylko syntezator.
Jest. No i tak, aplikację możemy obsługiwać zarówno tabulatorem, jak i strzałkami.
Pierwszy przycisk to jest…
Czyli to, co mówiłem. Jeżeli to kliknę, to będzie dźwięk się od razu rejestrować
i wszystko, co będzie u nas słyszalne w słuchawkach, pójdzie też normalnie do aplikacji.
A nie, najpierw jest Ambient Environment, później jest In Your PC, okej.
No więc kliknę sobie tutaj, przewinę tylko sobie coś.
I kliknę teraz.
Jeżeli słyszymy, że już nie przesuwa się nam pasek postępu,
to znaczy, że aplikacja skończyła rozpoznawanie.
W przypadku niektórych utworów jest szybko,
w przypadku niektórych utworów troszkę na tym schodzi.
I teraz w interfejsie pojawia nam się troszkę więcej rzeczy.
Będę po nich przechodził tabulatorem.
Możemy sobie odtworzyć.
Tej opcji akurat nie testowałem, bo ja po prostu zazwyczaj sobie klikuję i sprawdzam osobno.
Natomiast teoretycznie jest możliwość odtworzenia tego, co nam znalazło.
Następnie tabulator i mamy wykonawcę.
No i tutaj jest jedna fada tej aplikacji.
I jeżeli chcemy sobie gdzieś tam właśnie ogarnąć cały utwór, w sensie skopiować zarówno wykonawcę, jak i artystę,
no to musimy najpierw skopiować wykonawcę, jak i tytuł.
To musimy sobie najpierw skopiować wykonawcę, następnie przejść tabulatorem do drugiego pola edycji.
I tutaj mamy tytuł.
Pod tabulatorem mamy jeszcze…
I tak dalej. To jest link, który po kliknięciu otworzy nam przeglądarkę z wersją Shazama desktopową.
To znaczy, no tak jak mówiłem, Shazam nie pozwala na rozpoznawanie, ale pozwala na przejrzenie.
Jeżeli ktoś nam da linka, to możemy sobie to po prostu w przeglądarce otworzyć, co już ktoś kiedyś gdzieś rozpoznał.
I tu jest jeszcze jakieś pole edycji. W sumie nie wiem, do czego to służy.
Tutaj mamy jeszcze Related Song, czyli podobne utwory tak jak jest w zwykłym Shazamie,
bo zapomniałem wspomnieć, że aplikacja będzie po prostu na API Shazama.
I to z tego co mówił mi znajomy, chyba tym starszym, bo dopasowuje te wyniki lepiej.
I później wracamy sobie normalnie na tą listę.
I teraz jeszcze jedną rzecz pokażę, pokażę jak wygląda historia.
I tutaj od razu mały disclaimer.
To nie jest niedostępne, ale jest trochę upierdliwe.
Jeżeli umiemy się posługiwać myszką NVIDIA,
to sobie z tego bez problemu skorzystamy.
Klikam na przycisk History.
Otwiera nam się w ogóle nowe okienko.
Aplikacja dalej jest pod alt tabem.
Normalnie widok przynajmniej możemy sobie tutaj chodzić, tak jak wcześniej.
I jesteśmy znowu w siatce danych.
Jak damy sobie tabulator, no to będziemy mieć link.
W sumie tego, do czego on jest, akurat nie sprawdziłem.
No i cóż nam to mówi?
Jak widać, nie mówi nam to nic.
W tym przypadku Insert 2.
I teraz już w prawo.
Numeryczne dwa, dodajmy.
Numeryczne dwa, a później czwórką i piątką.
No i najpierw mamy tutaj akurat tytuł.
Później mamy wykonawcę.
I później mamy link do samego Shazama.
I tak naprawdę to też można by było sobie tu zaznaczać
insert F9 czy NVIDIA F9 i NVIDIA F10, to gdyby ktoś chciał.
Czy nawet kopiować przez F12, jeśli mamy speech history.
Tak, tak.
Więc to jest cała aplikacja.
I ona jest bardzo minimalistyczna, ale właśnie czegoś takiego było mi trzeba.
Powiem Wam szczerze, że w przeciągu ostatniego tygodnia, kiedy to używam,
mając na dysku sporo fragmentów po prostu ponagrywanych tego, co mi się
podobało na zasadzie, a zshazamuję sobie kiedyś, jak w końcu podepnę
głośniki i odpalę na telefonie apkę.
Zshazamowałem właśnie koło 70 chyba utworów, które miałem gdzieś tam do
I już dziesięć nowych w ogóle poza schematem wpadło, tak więc aplikacja to jest
Shara Music coś tam.
Dlaczego mówię coś tam, bo w zasadzie jej nazwa nie jest zbyt ważna w tym kontekście, bo
wystarczy w Storze wpisać po prostu Shazam i on nam to poleci jako pierwszy wynik.
Przynajmniej u mnie tak było.
To już wiem jaką aplikację sobie za chwilę zainstaluje, bo rzeczywiście to jest fajne i
I to może się przydać nam nawet wtedy, kiedy jakieś radio, którego słuchamy, wyświetla tytuły utworów,
ale my chcemy sobie je notować na zasadzie, o, to jest fajne, to sobie to zapiszę.
I wtedy mamy po prostu w jakiejś jednej aplikacji taką historię i możemy sobie do niej wrócić i może nam to się do czegoś przydać.
Tak, to się weźmę, że Ether taką funkcję robi domyślnie. Ether w ogóle zapisuje wszystkie utwory, jakich wysłuchaliśmy we wszystkich radiach.
I można sobie na jednej zakładce to podejrzeć i w ogóle przejść do Apple Music.
Ktoś mnie w ogóle pytał, czy da się tutaj robić w sposób ciągły.
No niestety takiej funkcjonalności, jak zwykły Shazam on to chyba posiada,
jak dobrze kojarzę, takiej funkcjonalności, żeby on ciągle rozpoznawał
i na bieżąco nam wszystko raportował, nie ma.
Musimy faktycznie kliknąć na ten przycisk i on wtedy sobie będzie dopiero sprawdzał.
Funkcji rozpoznawania z mikrofonu nie pokazywałem, bo wyszłoby w zasadzie na jedno.
W sensie działa dokładnie tak samo.
Jasne. I ja podejrzewam, że to też wynika z tego, że ta aplikacja bazuje na API Shazama.
Tak, tak.
I całkiem możliwe, że to jest aplikacja zewnętrzna i za użycie takiego API w jakimś naprawdę dużym wolumenie,
no to Shazam w końcu by kazał sobie płacić.
Bo tego typu usługi, które rozpoznają streamy, czy rozpoznają w ogóle muzykę w sposób ciągły, to zazwyczaj są płatne.
Na przykład jest coś takiego jak ACR Cloud. I z ACR Cloud korzysta chociażby jedna ze stacji, których słucham bardzo często, czyli Radio Caroline.
Oni dlatego korzystają z tego w ten sposób, bo tam audycje prowadzone są w różny sposób.
Niektórzy nagrywają całe programy, niektórzy grają z płyt kompaktów albo z winyli.
Więc też ciężko by było, żeby te informacje o tytule i artyście były wysyłane w jakiś zunifikowany sposób.
A tak, to cały czas tam słucha ten ACR Cloud i wysyła na serwer aktualne informacje dotyczące piosenek.
Z ciekawości, tak trochę poza tematem, to jest ten sam ACR od ACR Phone i tych innych aplikacji?
Chyba nie.
Ale w każdym razie ACR Cloud jest taka usługa i oni się specjalizują właśnie w rozpoznawaniu takich rzeczy.
Na przykład właśnie z jednej strony dla stacji radiowych, ale z drugiej strony też dla wytwórni muzycznych.
Bo prowadzą jakieś np. badania popularności piosenek.
Można w ten sposób, dzięki temu sobie sprawdzać.
Np. w jakichś tam miejscach, gdzie coś jest odtwarzane.
Czy w jakichś marketach, czy w innych miejscach tego typu.
Tak więc z mojej strony by to było wszystko.
Mam nadzieję, że komuś się to przyda.
I już widzę, że to się wielu ludziom przyda.
Oj, przyda się, przyda.
Na pewno ilość pobrań dzisiaj państwu szaz up,
bo tak nazywa się producent tej aplikacji, co ciekawe, wzrośnie.
Pozostaje mieć nadzieję, że aplikacja szybko nie zniknie, bo tam nagle się okaże, że jakoś mocno to API zostało użyte.
No ale myślę, że nie, że jakieś pojedyncze sprawdzenia to… no to właśnie z myślą o tym ta aplikacja była tworzona.
Dokładnie.
Okej Marcelu, to dzięki w takim razie za polecenie tej aplikacji. Do usłyszenia.
Dzięki, do usłyszenia.
No to teraz myślę, że możemy przejść dalej do CSUN-a.
Zgadza się, bo ta konferencja zaczęła się właśnie w miniony poniedziałek.
Konferencja, do której wracamy regularnie już od kilku lat.
Jak zaczyna się marzec, to zaczyna się CSUN.
Tym razem po raz chyba drugi albo już trzeci w Anaheim w Kalifornii.
I tutaj co takiego się dzieje?
Ja przejrzałem sobie listę sesji, które mają się odbyć.
Jest tego tyle, że chyba godzinę zajęło mi czytanie samej listy
i opisów tego, o czym ci ludzie wszystkim chcą mówić.
Już nie wspominam o wystawcach w części wystawowej,
bo tam nawet jeszcze nie zajrzałem.
Ale mamy już pierwsze nowości i pierwsze raporty
od tych największych firm,
od których nowości byśmy się spodziewali.
No i tak np. Envision postanowiło już na początku konferencji oficjalnie opublikować Eli.
Czyli tego asystenta, który jest taki personalizowalny,
który już nie ma kilku funkcji typu tam ze skanuj, przeczytaj dokument,
a potem ewentualnie zadać pytanie, tylko on już działa w taki sposób kompleksowy,
że nasza interakcja z nim zaczyna się od konkretnego pytania,
czyli po prostu przeczytaj mi w tym menu, jakie są opcje bezglutenowe np.
No i on w tym momencie już dokonuje tych samych operacji,
czyli tam skanuje to zdjęcie, wyczytuje ten i po prostu podaje nam tylko te opcje.
Takiego asystenta możemy sobie spersonalizować, możemy mu dać jakąś osobowość,
jakiś głos konkretny, styl tych wypowiedzi, czy ma być bardziej, nie wiem,
takim lokajem, czy jakimś średniowiecznym rycerzem, czy komentatorem sportowym,
czy kim jeszcze on ma być.
No i jest on dostępny zarówno jako apka na iOS-a, jak i Androida, jak i na Envision Glasses, jak i zdaje się też na Windowsie, co ciekawe.
I ponoć też na Whatsappie. Tak przynajmniej donosi podcast DoubleTap, który już z przedstawicielami firmy Envision miał okazję na tę okoliczność przeprowadzić wywiad.
Dowiedzieliśmy się również, że na razie asystent jest darmowy,
ale są rozważane pewne opłaty za jego użytkowanie.
No i tutaj już firma Envision zastanawia się,
jak by te opłaty wprowadzić, żeby nadal było to wszystko
gdzieś tam dla ludzi przystępne. Czym się to skończy? Zobaczymy.
Też została firma zapytana o to, co z okularami,
no bo Google Glass już tam na wykończeniu i tak dalej.
No dalej będzie to podstawa Envision Glasses, aczkolwiek patrzą cały czas w stronę
jakichś bardziej nowoczesnych rozwiązań. Na pewno nie chcą iść w urządzenia
podpinane do smartfonów. Oni by chcieli mieć niezależne urządzenie, na którym
mogą tą swoją platformę rozwijać.
Jeżeli chodzi o Eli, to i o Eli na desktopa, to jeszcze tylko dopowiem,
bo już to sprawdziłem, nie ma aplikacji, przynajmniej na razie,
jest wersja przeglądarkowa.
A tak.
Więc rzeczywiście działa.
A wiesz może Michale, jak tam teraz z polskim wygląda? Bo wiem, że były problemy na początku.
To znaczy, jest w stanie mówić po polsku. Czasem mu się ten język przełączy w locie na angielski.
Ale generalnie już da się z nim dogadać. Da się z nim dogadać, komunikuje się po polsku i polską mową.
To też jest myślę, że dość istotne.
A te osobowości też jakoś działają konkretnie?
Tak, one działają. To jakoś w ogóle zostało dziwnie przetłumaczone. Teraz nie pamiętam, ale jakieś takie nietypowe słowo zostało użyte do określenia tych osób właśnie.
Wspierający? Czy jakoś tak?
Pewnie elaj, pewnie słowo elaj zostało przetłumaczone komputerowo i wyszło jak wyszło.
Natomiast sojusznik.
O właśnie, sojusznicy, tak, sojusznicy.
Tak, to są sojusznicy?
Tak, zdaje się, że tak, zdaje się, że tak.
Czuję się, jakbym grał w ogame’a znowu, ale okej.
Czy inną jakąś strategię przeglądarkową.
Pozdro dla dzieciaków z wczesnych dwutysięcznych.
Natomiast, no też nie jest tajemnicą, że Envision próbuje gdzieś współpracować z Metą nad rozwojem w ogóle jakiejś ciekawej technologii dla osób z dysfunkcją wzroku.
No na razie się przyznali, że rozwijają coś pod kątem nawigacji. Także zobaczymy, co z tego wszystkiego nam jeszcze wyjdzie.
Na ten moment takie nowości od Envision.
Drugą firmą, która się popisała jest Vispero.
Vispero w tym roku świętuje 30-lecie Jossa.
To już mówiliśmy.
No i z tej okazji różne rzeczy się dzieją.
Oni jakieś tam publikują swoje materiały.
No ale założyli Insert J Club.
Insert J Club, czyli ekskluzywny klub dla użytkowników Jossa.
Istotnie jest on ekskluzywny, bo przy rejestracji
i do tegoż klubu musimy podać nasz numer seryjny JOS-a.
Także, no to już jest ewidentnie zabawa dla osób, które licencje nabyły.
Czym taki klub się charakteryzuje?
Ano tym, że mają w nim być dostępne przeróżne materiały
i w ogóle jakieś oferty specjalne dla użytkowników JOS-a,
takie jak na przykład webinary szkoleniowe,
takie jak na przykład sesje Q&A,
czyli pytań i odpowiedzi na żywo z przedstawicielami WISPero,
Takie jak na przykład różnego rodzaju konkursy i giveaway’e,
gdzie po prostu będą jakieś różne rzeczy rozdawane, losowane i tak dalej.
I zobaczymy co jeszcze, bo to na początek na razie tak się będzie rozkręcało.
No bardzo to reklamują jako taka bezpośrednia linia kontaktu
między firmą Vispero i jej przedstawicielami odpowiedzialnymi
za poszczególne produkty, a użytkownikami.
Ja szczerze mówiąc trochę się boję, że tutaj końcowym efektem
Problemem będzie to, że te webinary, na przykład te materiały szkoleniowe,
które do tej pory były dostępne tak po prostu ogólnie dla każdej zainteresowanej osoby
i bardzo były promowane w ogóle w mediach społecznościowych firmy,
mogą zniknąć pod po prostu Insert J Club i nie być dostępne.
Na razie mówi się o jakichś ekskluzywnych materiałach szkoleniowych.
Czy to oznacza, że będą jakieś specjalne, organizowane tylko dla członków,
a jakieś bardziej ogólne dla wszystkich? Może tak być.
Czy to znaczy, że w ogóle publiczne webinary znikną? Nie wiem, nie wiem, nie wiem.
Jest za wcześnie, żeby sądować. Natomiast w ten sposób chce firma Vispero wokół swoich produktów stworzyć swego rodzaju społeczność.
Następnie Orbit Research przedstawiło Orbit Playera, czyli będzie odtwarzacz MP3,
To jest takie jakby konkurent bezpośredni dla czy Victor ReaderStream’a, czy SensePlayer’a, czy Orion’a, tylko od Orbita.
Ma on mieć taki tradycyjny design, jak takie odtwarze trzymają, czyli blok numeryczny, klawisze jak w telefonie komórkowym starym,
cztery strzałki, klawisze funkcyjne, z boku jack na 3,5 mm słuchawki, bądź też mikrofon, slot na karty pamięci,
No i to tyle.
I ponoć w dobrej jakości głośnik wbudowany.
Wbudowanej pamięci będzie 16 GB.
Urządzenie bazuje na ośmiorodzeniowym procesorze i Androidzie.
Więc tutaj z jednej strony stwierdzili,
że pozwoli to na instalację dodatkowych aplikacji.
Z drugiej strony, że pozwoli to na przyszłościowe rozwijanie
tej platformy o nowe funkcje.
Więc nie do końca zrozumiałem, czy to oznacza,
Myślę, że ten Android to jest taki tylko dla twórców rozwiązania, żeby nowe funkcje dodawać, czy też dla nas będzie on jakoś otwarty.
Ja z opisu wywnioskowałem, że raczej chodzi o to, że to będzie platforma dla twórców.
Tam nigdzie nie było wspomniane o tym, że zainstaluj sobie dowolną aplikację, a podejrzewam, że twórcy by się tym raczej chwalili.
To znaczy ja, co mnie zasugerowało, jeżeli wejdziesz pod link, który ja opublikowałem w naszych notatkach, który jest od oficjalnej strony Orbit Research,
To tam w cechach, tam gdzie jest takie skrótowo wymienione cechy na liście, to jest właśnie, że pozwala na instalację.
A, no to chyba, że tak. To może gdzieś o tym akurat nie doczytałem.
Natomiast to urządzenie w ogóle będzie dostępne w dwóch edycjach.
W edycji globalnej i co ciekawe, bo ja tam przejrzałem sklep
I Orbit Research będzie oferował też Orbit Playera w wersji na rynek indyjski.
Okej. Rozumiem, że on może być jakoś tam zoptymalizowany. Pytanie jak z ceną, bo nie podają tej ceny na razie.
Ceny nie podają ani w jednym, ani w drugim przypadku. Ta indyjska wersja ma być rzeczywiście zoptymalizowana pod względem z jednej strony syntezy,
bo tam są wymienione tam hindi i jeszcze kilka innych języków.
Też wsparcie dla bibliotek cyfrowych.
Tam są wymienione konkretne biblioteki, z którymi będzie to działało.
W wersji global jest też wymienionych kilka, ale tych bardziej chyba amerykańskich bibliotek.
Więc pytanie jak na przykład to w polskich realiach, czy będzie tam można dopiąć DZD na czy nie.
Natomiast to są takie dwie edycje tego urządzenia.
Tak, także zobaczymy, jak to wyjdzie cenowo.
Może być ciekawie, bo zdaje się, że Orbit Speak,
który jest de facto notatnikiem, więc trochę bardziej rozbudowanym urządzeniem,
on chyba kosztuje… ile on kosztuje? 200?
Nie, może więcej dolarów. 250, 300?
No nie pamiętam, ale wiem, że cenowo
gdzieś to miało być bardziej atrakcyjne.
Także zobaczymy, ile taki Orbit Player.
Funkcjonalność taka typowa, jak można się spodziewać po takim odtwarzaczu.
Bardzo rozbudowane odtwarzanie wielu formatów.
EPUB, TXT, BRF, DAISY, DOC.
PDF-ów, co ciekawe, nie ma wymienionych.
Chyba, że były, a mnie ominęło.
Oczywiście pliki też dźwiękowe,
różnego rodzaju MP3, WAV, WMA i tak dalej.
Nagrywanie mikrofonem, który jest wbudowany.
Wysokiej jakości. Pytanie jak zdefiniowana jest wysoka jakość.
Radio internetowe, podcasty, te biblioteki już wyżej wspomniane.
Bardzo zaawansowana nawigacja, po rozdziałach, po stronach,
po jakimś czasie, procencie itd. Zakładki, do tego wszystkiego
jakieś tam przyciski i kombinacje klawiszy.
Kalkulator, zegar, menadżer kontaktów.
Także, no takie funkcje typowo, jakich po takim odtwarzaczu moglibyśmy się spodziewać.
Jest też radio FM, no i to jest wszystko, co w tym momencie pamiętam.
No także zobaczymy. Aha, no i jest, to mnie też zaciekawiło,
bo jest wielojęzyczny silnik TTS, więc pewnie bazują na czymś znanym.
Pewnie albo jakiś vocalizer, albo acapella, albo Google TTS, zobaczymy.
Natomiast napisane było też wsparcie dla wielu silników TTS.
Więc to pytanie, czy oni już coś oferują,
czy zamierzają to w przyszłości zintegrować,
czy tu znowu wracamy do motywu tej instalacji,
którego nie do końca potrafimy teraz rozgryźć,
czy o co tu jeszcze chodzi, ale napisane jest wiele silników TTS,
więc można wyjść z założenia, że nie jesteśmy skazani
i na jakieś jedne głosy, jeżeli w naszym języku się jakoś tam nie sprawdzą albo ich po prostu nie będzie.
No, zawsze będzie można np. użyć darmowego eSpeaka.
Przykład. Albo Air Havoca, jeżeli to Android.
Także, no, Orbit Player, tak się prezentuje.
No i ostatnia firma, która swoje nowości w podcaście Double Tap w wywiadzie przedstawiła,
to jest HumanWare.
No, tutaj z takich rzeczy, które bezpośrednio nas, jako osoby niewidome,
by interesowały. Nie jest wiele, bo na ten moment wiemy tylko, że
Victor Trek Stellar ma być rozbudowany o, już nad tym pracują,
opcję wykrywania przejść dla pieszych i słuchania audiobooków, tak żebyśmy mieli
nawigację i konsumpcję multimediów w jednym urządzeniu.
Planowane są też aktualizacje oprogramowania dla monitorów braillowskich,
dla Mantisów, dla Brilliantów, ale tu na razie, no, nie wiemy jeszcze,
co się ma w nich pojawić.
Zobaczymy, co dalej, bo CSUN jeszcze trwa do piątku, więc po pierwsze,
pewnie tak na gorąco jakieś ogłoszenia nowe i zapowiedzi wyciekną.
Inna rzecz, że pewnie jeszcze przez miesiące i miesiące różne podcasty
będą zrzucać swoje materiały. Wiem, że zazwyczaj podcast Blindbergens
przodował w tym, że po prostu prowadzili wywiady, z kim się dało,
od tych wielkich takich firm, wielkich tutaj nazw i nazwisk na scenie,
Po malutkie startupy do dziś pamiętam wywiad z kimś, kto chciał stworzyć urządzenie dla osób niewidomych do orientacji wewnątrz toalet publicznych.
Także na wszystko znajdzie się miejsce.
No a jeszcze czekamy na wiele ogłoszeń.
Przykładowo również swoje nowości na ten rok będzie chciała zaprezentować firma Selvas, dawniej Hims.
No czyli tu dowiemy się co nowego w linii produktów Brailsense i SensePlayer.
miał być też BT Braille od Blaise Technologies zaprezentowany.
Też firma NewHaptics przedstawiła swój wieloliniowy monitor brailowski.
Ja widziałem w ogóle mnóstwo sesji dotyczących chociażby jakiejś konwersji materiałów
takich naukowych, matematycznych, ale dostępne formaty,
takimi mignął programik, który chyba nowy nie jest, ale pierwszy raz zdaje się,
że się pojawia japońskiej produkcji jak Infty Reader, który ma właśnie przerabiać
Witam Was. Dlaczego wczoraj nie było tyflo przeglądu, tylko dzisiaj?
I drugie pytanie do Was.
Ja spróbowałem z GitHuba pobrać repozytorium, chciałem pobrać jeszcze dżeszło.
Niestety, funkcja ściągnij ten plik nie chciała.
I za żadne skarby nie mogłem ściągnąć tego dżeszła.
Niestety nic się mi nie udało. Nie wiem, jak to ściągnąć, tego drzeszło z reprezentarium GitHuba.
Powiedzcie mi, jak to zrobić?
Dlatego dzisiaj tyflo przegląd, a nie wczoraj. Co jest spowodowane?
Drugie pytanie, dlaczego zeszło na githubie reprezytorium, nie mogłem ściągnąć.
No to chyba ta sama wiadomość, tylko Sylwester już się po prostu nie mógł doczekać naszej odpowiedzi.
Sylwester, odpowiadając na Twoje pierwsze pytanie, dlaczego dziś, a nie wczoraj?
Dlatego, że po prostu wczoraj nie było nikomu po drodze, aby tę audycję poprowadzić.
Ja walczyłem z materią sprzętową,
natomiast jeżeli chodzi o pozostałych prowadzących,
to po prostu nie mieli możliwości, żeby się pojawić.
A co do GitHuba? Zazwyczaj, jeżeli chodzi o pobieranie,
no to jest ta sekcja Releases i tam w tej sekcji
są udostępnione rzeczy do pobrania.
Nie wiem, czy ty Pawle coś możesz tak bardziej szczegółowo
Czy możesz coś pododać, pokierować Sylwestra?
Ja sprawdziłem właśnie, czy ten trik, który ja znam, działa.
I działa. Czyli bierzesz sobie adres tego repozytorium, na pewno go masz tam,
github.com, slash Niren, chyba slash Czesław.
I w tym adresie, jak masz github, git, hub, to to hub zamieniasz na RLS.
Tak, żeby adres wyglądał git rls.com i cała reszta.
Jak naciśniesz Enter, wyświetli Ci się najprostsza strona, jaka jest.
Jeden nagłówek i lista z dwoma linkami.
Pierwszy link to będzie zwykły APK, drugie to będzie wersja Lite.
Ja już teraz nie pamiętam różnic. Zdaje się, że wersja Lite po prostu
nie ma pewnych usług, które są dostępne tylko w Chinach.
Chyba, że Ty, Paulino, masz tu jakąś większą wiedzę.
Znaczy, na ten moment ja zawsze korzystam ze zwykłej, więc na ten moment,
tak jak powiedziałeś, to najsensowniejsza jest ta wypowiedź. Ale też wiem, że ta wersja Lite
działa lepiej na słabszych telefonach, przynajmniej tak producent to deklaruje.
Ale chyba ma, znaczy, miewa problemy ze stabilnością i z jakimiś tam rzeczami,
Bo czasami ludzie przechodzili z light na dużą, dlatego że mieli jakieś problemy.
Ale już nawet nie wiem jakiego rodzaju to były problemy, bo to było dłuższy czas temu.
No okej, to w takim razie myślę, że możemy przejść dalej.
I teraz taka dosyć krótka informacja, ale myślę, że bardzo przydatna dla co niektórych.
Mianowicie, no już zresztą nie jest informacja pierwszej młodości,
Dziś ponownie na nią natrafiłem, więc może okazać się przydatna dla kogoś.
Mianowicie dźwięk w trybie awaryjnym w systemie Windows.
Co my właściwie możemy zrobić i czy w ogóle możemy zrobić coś, żeby to zaczęło działać?
Otóż jest w internecie odpowiedni skrypt w postaci pliku BAT, który wpisuje konkretne informacje do rejestrów.
Jest kompatybilny na pewno z Windowsem 10 i Windowsem 11.
Windowsem 11 w wersji 64-bitowej z dziesiątką zdaje się 32 i 64-bitową.
Ten skrypt wystarczy po prostu pobrać i uruchomić.
On wprowadzi różnego rodzaju modyfikacje do rejestru,
więc dobrze jest sobie poczytać ten plik BAT, który tam jest.
Jest zawarty, bo to zawsze no bezpiecznie po prostu zapoznać się z treścią takiego pliku przed jego uruchomieniem, a tu mamy akurat ułatwione zadanie, bo jest to plik typowo tekstowy w postaci skryptu, który sobie musimy uruchomić, co ważne musimy uruchomić jako administrator.
No i kiedy on zakończy działanie, to powinniśmy mieć już dźwięk także i w trybie awaryjnym.
Natomiast, co ważne, bo mamy dwa rodzaje tego trybu awaryjnego,
mianowicie działa to tylko w trybie awaryjnym z obsługą sieci.
W trybie awaryjnym z obsługą sieci, tam będziemy mieli dźwięk
i będziemy mogli coś zrobić.
A czasem się ten tryb awaryjny rzeczywiście w Windowsie przydaje,
jeżeli na przykład uruchamiamy jakieś oprogramowanie,
które chociażby ma posłużyć do kompletnej dezinstalacji sterowników,
jakiegoś podzespołu naszego komputera, albo jakichś innych, dosyć drastycznych działań,
które nie chcą się w pełni wykonać w systemie działającym w normalnym trybie,
no to wtedy ten tryb awaryjny nam się przydaje.
Problem taki, że po prostu nie ma tam w nim domyślnie dźwięku.
Ale po wdrożeniu tego skryptu, po wprowadzeniu tych modyfikacji, dźwięk powinien się pojawić.
Więc gdybyście czegoś takiego potrzebowali, to będzie to link do pobrania paczki zip.
Będzie ona na dysku Google. Wystarczy ją po prostu pobrać, uruchomić.
Ale, tak jak mówię, no w tym przypadku, wiadomo, warto najpierw sobie trochę poczytać, przejrzeć, co właściwie ten skrypt robi.
I to jest taka krótka informacja, to teraz może zajrzyjmy do kolejnych waszych wiadomości.
Tu mamy wiadomości od Rafała. No i tu mamy tych wiadomości kilka, posłuchajmy.
Dobry wieczór. Mam trochę do was spraw.
No tak. Chodzi o kwestię strumienia tyfloradia.
Wracając do tej sprawy, w której miałem problem, że ten strumień wasz nie działa,
Że mam ten problem. No to już chciałem poinformować, że tego problemu nie mam.
Problem został rozwiązany. A w jaki sposób? Co to było? Jaki to problem był?
Co to powodowało? Co to było tego przyczyna?
Powodował to router. To router powodował.
A co w tym brocerze bolało?
Co tam go bolało, to dokładnie nie wiem.
Bo ja po prostu zmieniłem dostawcę internetu.
I… bo przyszłem właśnie z Orange do Plusa.
I dalej jestem na Światowodzie, ale jakby…
Jadę na Światowodzie z Oręcz, ale jakby usługi są właśnie z plusa, no nie?
No i wiadomo, jak się zmienia sieć, no to się zmienia router, tak? Wiadomo.
No i właśnie, i te wszystkie wtedy te problemy ustąpiły.
Dzięki. To ciekawe, no.
Bo ja i mam też rurkarkę sieciową. Też miałem wtedy, jak miałam ten stary router, to też takie problemy miałem, że np.
że no niby… no tak, że jakby… że plik był fałszywy, tak? No.
Że niby się wydrukował, no bo powinno się automatycznie niby usunąć.
Ale np. dawałem i kolejny plik, żeby wydrukował.
No to się wydrukował ten, jakby poprzedni, i plus ten nowy.
No i inne problemy. A tak właśnie ustąpił.
To zrogowanie nie mówiłem, ale właśnie tak zobserwowałem.
To jest jakby pierwsza kwestia.
A i jeszcze co do plusa, i zmieniłem właśnie te…
podpisałem to w internecie i tak dalej.
To przy okazji wyczytałem w swojej ułowie, w Eneksie i tak dalej, że jest możliwość.
I to się ciekawe, że od 2014 roku ma taka dostępność, jak chodzi o dla osób niepewnosprawnych.
A o co chodzi?
No, że na przykład jak chodzi o nas, czyli dla osób niewidomych i słabowidzących,
Dokumenty wszelkie, czy umowy i faktury i tak dalej, to można dostawać jak w wersji papierowej, to w drugu powiększonym, bądź w braillu.
A jak w wersji elektronicznej, to w wersji tekstowej, zwykłej.
No wiadomo, na nośniku bądź na poczucie elektronicznej.
Bo nie wiem, czy wiecie, bo w Plusie w ogóle wszedł nowy system.
Przede wszystkim PDF, który tam jest takie zabezpieczone, co się wpisuje hasłem, bo to wiadomo, że oni to zabezpieczają, to hasło.
No to teraz jeszcze mają ten system, że ten PDF jest jakby w PDF-ie, czyli jeszcze jest jakby plik, w pliku jest jakby załączeń, no nie?
Przychodzi mail tak zwany fortfoliowio, czyli coś takiego, czyli plik w pliku.
Kolejna sprawa to jest taka, o to mnie ciekawe z tym facebookiem,
A proszę podać, jaka to jest wersja tej aplikacji, tego Facebooka, żeby można wiedzieć, czy mam tą najnowszą wersję, czy nie mam.
Proszę podać numerację tej wersji Facebooka, tej aplikacji.
A co do linijki braillowskiej, to powiem tak, to jest na pewno problem techniczny.
Jakby to był problem z zawiesiłością czy jakimś problemem z programowaniem, tak powiem, to by się inaczej zachowywało.
Czyli na przykład, ten punkt wychodzi słabo, a wybiło mocno, bo to można ustalić, jak te punkty mają wychodzić, jak twarde, tak?
Twardość mi tu chodzi, na przykład.
A jeżeli on tak się sztywno, on się nie rusza, to jest problem techniczny i faktycznie trzeba zgłosić do Altyksu i odesłać tam skrzyżowisko.
Bo jeżeli nawet ktoś znajduje gwarancję sprzęt, a samemu się wyczyści, no to wtedy też straci gwarancję, że nie zalecą wyczyścić nowe sprzęty.
To tyle w moim programie. To wszystko.
A jeżeli chodzi o te dokumenty, to to wszystko się załatwia w wersji na punkcie.
Można mówić o szczegółach, szczegółów, szczegółów, oj, oj, to jest ciężki kawałek chleba, no, jest pole do opisu dla tych, którzy chcieliby z tego szkolić.
To nie jest domena tylko…
Nagrywanie bez przytrzymywania…
Przyjęło się, że seniorzy, seniorzy są, że prace będą ofiarami, chodzi o to szóstą.
Ale dlatego tak, no bo seniorzy już tak nie myślą.
I z reguły to, co tam przeczytają i tak dalej, to myślą, że jest prawda i tak dalej.
Ja mam osobę w rodzinie, która jest seniorką.
I myślę, że to, co dzwoni, to to przyczyna, że to jest prawda.
I nawet jak powiesz, że to jest prawda, to ja i tak nie wierzę,
Nieprawda.
To i tak nie uwierzę, że nieprawda.
I to jest właśnie to problem.
A młodzi jednak myślą.
Znaczy, wszystko zależy to jak…
Czy jest sprawny, czy niesprawny.
No bo jeżeli jest problem gnowy, też nie jest sprawny.
Bo nie każdy młody potrafi myśleć.
Tak jak powinien trzeba myśleć.
No to też pewnie powierzą.
To wszystko zależy.
Po prostu jest podstawowy… ludzie robią podstawowy błąd.
Ja myślę, że tu zrobimy i postawimy kropkę i jedna wielka prośba do Rafała i do wszystkich naszych słuchaczy.
Jeżeli nam nagrywacie, moi drodzy, jakąkolwiek wiadomość, wyłączcie radio albo się przynajmniej od niego oddalcie.
Bo w tym momencie to Rafała było momentami słuchać ciszej niż naszą audycję, którą sobie słuchał i naprawdę myślę, że dla naszych słuchaczy, którzy tego słuchają, jest to absolutnie niekomfortowe słuchanie tego typu wiadomości.
Także z góry bardzo dziękujemy. Potem, no wszyscy tego słuchamy, więc fajnie by było, żeby jednak te wiadomości były zrozumiałe.
Zrozumiałe dla każdego. Natomiast odpowiadając na pytanie, Rafale, twoje, to już sobie sprawdzam wersję Facebooka.
504.0.0. Taka jest wersja Facebooka, której dotyczą te problemy. Więc no tak to wygląda, tak to jest, jeżeli takiej wersji nie masz,
A masz wersję jakąś starszą, to na razie jej nie ruszaj, zostaw jak jest, bo po prostu będziesz miał kłopoty związane z komentowaniem.
A teraz przechodzimy dalej. Już było trochę o Josie, to będzie jeszcze o Josie, bo Jos się doczekał aktualizacji.
Zgadza się. I no to jak zwykle bywa,
co miesiąc mniej więcej wychodzą aktualizacje czosnka,
takie, żeby można było tam do tej wersji dużej, która już wyszła na dany rok,
jakieś jeszcze nowe rzeczy dodać.
I ja już Wam powiem, co tu się zmieniło.
Postaram się i tu z góry uprzedzę, tak jak to zwykle bywa.
Mogę się troszeczkę zacinać, bo będę starał się Wam to
w locie z angielskiego, tłumaczyć.
Więc pierwszą nowością jest
wsparcie dla znaczników brailowskich,
oznaczających różne stany czcionek,
także format, atrybuty.
Bo zdefiniowano w brailu,
przynajmniej chyba w angielskim UEB, ale nie tylko,
pewne rodzaje punktacji brailowskiej,
które na przykład oznaczają,
że dane słowo, bądź znak, bądź całe zdanie,
czy też linia, są podkreślone, pochylone, pogrubione i tak dalej.
No i od teraz Joss może tą punktację pokazywać.
Tak, więc tutaj są podane przykłady dla UEB,
dla angielskiego uniwersalnego brajla.
Czwarty, szósty to jest pochylenie.
Cztery, pięć, sześć to jest podkreślenie,
a cztery, pięć to jest pogrubienie
I tam jeszcze są różne prefiksy a propos słowa, właśnie znaku i tak dalej.
No, NVIDIA też ostatnio takie rzeczy…
Albo już to wspiera od którejś ostatniej wersji, albo będzie wspierać niebawem.
Także wchodzi to ewidentnie i jest to fajne.
Na pewno pomaga to w jakiejś takiej redakcji albo w rewizji jakiegoś tekstu, który poprawiamy po prostu.
Są też pewne usprawnienia FS Companion, czyli tego sztucznej inteligencji,
która jest nam w stanie odpowiedzieć na różne pytania dotyczące samego JOS-a.
No i tu na przykład można otworzyć go Sharkiem, czyli tym asystentem głosowym.
Można też, już gdy się otworzy nam FS Companion,
zadawać różne pytania.
Albo użyć skrótu klawiszowego, albo przycisku dyktuj,
żeby po prostu naszym głosem jakieś pytanie podyktować.
Dodano też wsparcie, jak już Google dodał, to trochę wstyd,
Dla protokołu HID, po którym teoretycznie można różne monitory braillowskie,
na ten moment chyba tylko HumanWary, podłączyć bez jakichkolwiek dodatkowych sterowników.
Po prostu podłączamy na USB bądź na Bluetootha i działa.
Więc tutaj jest to wspierane, jest to na ten moment chyba wyłączone,
trzeba to ręcznie dodać, bo tam jakieś mogą być…
Tak właśnie, może niektóre funkcje jeszcze nie działają,
no i ten sterownik jest na dość wczesnym etapie rozwoju,
no ale też to po NVDA-u i po chyba voice-overze już teraz Google
i TalkBack i JOS też ten protokół wspierają.
Także tak to mamy.
Mamy też pewne poprawki dla Visual Studio,
Na przykład, przepraszam, odczytywane jest zawartość okien dialogowych.
Nie odczytuje już JAWS puste-puste, kiedy przełączamy się między otwartymi plikami.
Na pewnych ekranach, gdzie to jest bardziej optymalne,
automatycznie włącza się kursor wirtualny,
czyli taka nawigacja typowa jak po stronach.
I jeżeli przesuwamy się F6 po różnych obszarach,
W Thunderbirdzie są też pewne poprawki, np. dodana jest w szybkich ustawieniach opcja przełączania, żeby był odczytywany adres mailowy, a nie tylko imię i nazwisko nadawcy danego maila na liście wiadomości.
Tak, poprawiono błąd, że nie były odczytywane poprawnie nazwy adresatów danego maila,
a jeżeli dodaliśmy sobie auto-uzupełnianiem, wpisaliśmy parę liter, tabem uzupełniliśmy
i potem w tym polu do czy tam cc chcieliśmy strzałką w lewo sprawdzić, kogo tam mamy,
no to tam coś nie czytało dokładnie zbyt dobrze, a Jost teraz już to będzie czytał OK.
W otwartej wiadomości, kiedy nawigujemy tabem, poprawnie będą odczytywane pola od i do.
Informacje, ostrzeżenia o zewnętrznej zawartości, która została zablokowana,
już nie są pokazywane jako powiadomienia na monitorze brailowskim, te takie migające, flesze.
Kiedy w menu kontekstowym zaznaczamy jakieś pola wyboru, są rzeczywiście w Thunderbirdzie takie menu
i tak dalej, gdzie po prostu naciskamy Enter i on nie wychodzi z menu,
tylko zahacza to pole i możemy dalej w tym menu być.
No to teraz ten zaznaczony stan jest lepiej przez JOS-a czytany.
Tak, jeżeli mamy włączone pokazywanie skrzynek jako tabeli,
widoku tabeli z wyłączonym wątkowaniem, no to JOS poprawnie oznajmia,
że jesteśmy w skrzynce np. odbiorczej.
I Control Delete i Control Backspace poprawnie odczytuje usuwane słowa.
Teraz jeśli chodzi o wsparcie stron internetowych, mamy tutaj pięć poprawek.
Po uaktywnieniu linku do tej samej strony, czyli takiej tak zwanej kotwicy,
czyli powiedzmy jak mieliśmy jakiś rozdział, nie wiem, w instrukcji obsługi
albo tam jakąś książkę, czy tam jakieś, no dużo jest takich sytuacji,
gdzie po prostu jakieś sekcje na stronie są podlinkowane.
No to teraz, jeżeli klikniemy w taki link, to z dużo większą precyzją
Joss wyląduje w tym miejscu, w którym powinien.
Był błąd, który polegał na tym, że kiedy byliśmy w oknie dialogowym
i z strzałkami po tym oknie chodziliśmy, to czasami Joss sobie wychodził z tego okna
i chodził po stronie.
Aha. Kiedy nawigowaliśmy tabem i shift-tabem, oprócz linku, który aktualnie się podświetlił,
Joss czytał też czasem link poprzedni lub następny, więc po prostu mówił nam za dużo.
Skrót klawiszowy do wychodzenia z aktualnego kontenera.
To jest to, o czym mówiliśmy tydzień temu w kontekście NVIDIA,
że można wyjść sobie z jakiejś tam listy, ramki, tabeli i tak dalej.
Shift kropka w przypadku JOS-a.
Teraz działa poprawnie na paskach menu.
I akapity nie są już czytane podwójnie.
Kiedy nawigujemy skrótem CTRL, strzałka w górę, CTRL, strzałka w dół.
Mamy też poprawki z Google Suite, czyli w dokumentach Google,
konkretnie w arkuszach, JAWS już nie dodaje spacji dodatkowej,
kiedy oznajmia usuniętą zawartość lub jeżeli przechodzimy do pierwszej
lub ostatniej komórki w danej linii, czyli pewnie od pierwszej kolumny
do ostatniej. Jeżeli wyłączymy oznajmianie pozycji na liście,
to poprawnie już to działa, kiedy wychodzimy i wchodzimy na listy w Wordzie.
W nowym Outlooku wyrzucono dodatkowe znaki, które pokazywały się w brajlu
w treści nowo pisanej wiadomości. Również w Outlooku Joss będzie czytał
zawartość pól adresowych, kiedy kursor wychodzi z i wraca z aktywnym kursorem PC.
Kiedy otwieramy lub zamykamy wiadomości w Outlooku, w tym nowym, to JAWS już nie odtwarza dźwięku
Po wychodzenia i wchodzenia do pól formularza, podczas pisania wiadomości w nowym outlooku skróty od alt3 do alt6 odczytują pól DW do wiadomości, ukryte do wiadomości i temat.
A, Joss oznajmia linki w Nowym Outlooku i błędy pisowni w Teamsach.
Jeżeli jest dostępny tekst dla danego linku, no to w wiadomościach w Nowym Outlooku już nie jest odczytywany adres linku,
czyli będzie czytane tam Google, a nie www.google.com i tak dalej, zależy jak link jest wstawiony pewnie.
Był problem, że podczas przeszukiwania skrzynki, znaczy przeszukiwania poczty, skrótem Ctrl-E w Outlooku Nowym,
Ten tekst, który wpisaliśmy w pole wyszukiwania, nie był wyświetlany na monitorze braillowskim.
Zostało to naprawione.
I też mamy inne poprawki.
Na przykład, że po ostatnich poprawkach w Windowsie 11,
Jaws nie odczytywał sugestii, kiedy wyszukiwaliśmy w menu Start.
To zostało naprawione.
W opcji wygodnego OCR nie aktywował się czasem OCR w tle na YouTubie,
czyli do czytania napisów na YouTubie pewnie było to używane
Zaktualizowano wersję OmniPage dla lepszych wyników OCR.
Jeżeli wyłączone były komórki statusu, nie były pokazywane treści matematyczne w braillu, zostało to naprawione.
Naprawiony błąd, kiedy JAWS nie był responsywny w Reaperze, kiedy załadowany był SearchTX, czyli ten plugin, taki syntezator, jak rozumiem.
Jeżeli użyjemy funkcji Znajdź ścieżkę w skryptach,
no to teraz będzie podane jedynie rozszerzenie, a nie cała ścieżka.
Były problemy z odczytywaniem treści w nowszych wersjach Citrix Workspace,
czyli oprogramowanie do zdalnego sterowania komputerami.
Hmm…
I Jozot teraz odczytuje informacje, jakby zgody prawne,
które musimy zaakceptować i nacisnąć OK, zanim się zalogujemy.
To w korporacyjnych środowiskach, często w firmach,
Tak się dzieje, że zanim się włączy komputer i się załaduje, no to otrzymujemy taką informację prawną,
że tam możemy tylko jako uprawnione osoby korzystać z komputera i tak dalej, różnego rodzaju korporacyjne.
Maszyny wirtualne też to mają, więc trzeba takie okienko zawsze potwierdzić, dopiero wtedy się nam wyświetli
takie klasyczne logowanie w Windowsie. No to teraz JAWS takie okienka odczytuje.
I to w sumie wszystko w tej wersji JAWS-a.
No to rzeczywiście sporo zmian, jak to zwykle bywa, jeżeli chodzi o Joe’sa.
Teraz kilka słów, i to dosłownie kilka słów na temat tego, co nam planuje Microsoft w najbliższych aktualizacjach Windowsa.
I to może mieć pewnego rodzaju wpływ na dostępność, a mam tu na myśli CoPilota.
Bo nowe laptopy mają już klawisz do wywoływania tej funkcji, do wywoływania co-pilota.
Ale co w przypadku, kiedy mamy jakieś stare urządzenie, nie jest to laptop, albo na przykład jest to komputer stacjonarny, nawet i nowy, no to on takiego klawisza może nie mieć.
No i Microsoft wpadł na pomysł, że umożliwi wywoływanie co-pilota.
Ja mam wrażenie, że już ten temat kiedyś był, albo coś w okolicy tego tematu poruszaliśmy, bo skrót klawiszowy, jaki Microsoft zdecydował się użyć w tym celu jest dla mnie trochę niezrozumiały, ale spokojnie, to nie oznacza, że nie będziecie mogli manipulować rozmiarem okna.
Bo ten skrót klawiszowy, który będzie użyty do wywoływania funkcji Copilot, to jest Alt i Spacja.
Czyli ten skrót standardowo znany do zmiany rozmiaru okna. Możemy sobie tam maksymalizować, minimalizować itd.
Natomiast, co ważne, to ten skrót zadziała tylko wtedy, kiedy będzie aktywny, kiedy będzie wciśnięty przez 2 sekundy.
Więc tu po prostu trzeba się pilnować, żeby się tak za bardzo nie opierać o tę klawiaturę, no bo wtedy włączy nam się Copilot w Windowsie, jeżeli szybko nie zwolnimy tego skrótu klawiszowego.
Natomiast pytanie, co w przypadku osób, które albo wolno korzystają z klawiatury, albo mają jeszcze jakąś dodatkową niepełnosprawność manualną
I potrzebują jednak trochę więcej tego czasu, żeby np. wejść do tego menu do sterowania oknem.
A to się naprawdę czasem przydaje. Ja nie zliczę ile razy używam skrótu ALT SPACIA.
No, Microsoft tak postanowił. Będzie to działało tak, że wciśnięty i przytrzymany ten skrót ALT SPACIA
przez dwie sekundy wywoła okienko Copilota. Następnie, kiedy naciśniemy klawisz ESCAPE
to ta nasza głosowa konwersacja z Copilotem zostanie zakończona.
Na razie ponoć zaczyna to być publikowane w ramach kompilacji insajderskich.
Jaka będzie tego przyszłość, to jeszcze do końca nie wiadomo.
Nie wiadomo, kiedy ujrzymy w pełni, w pełnej krasie, w stabilnych wersjach okienek,
ten dodatkowy skrót.
Paulino, ty kiedyś testowałaś dość intensywnie testowe kompilacje Windowsa.
To już u Ciebie się pojawiło, czy Ty teraz już nie testujesz Windowsa aż tak?
Ja nadal mam, ale jeszcze nie dostałam tej funkcji.
A, no bo to zresztą też jest taka informacja, że to na razie jest gdzieś tam…
zaczyna się, zaczyna się pojawiać, więc też nie ma informacji, że wszyscy to dostali,
więc prawdopodobnie za jakiś czas to do Ciebie zawędruje.
Ja już słyszałem opinię użytkownika, który ma, no i stwierdził, że bardzo wygodny, fajny
Interfejs prosty do rozmawiania z co-pilotem.
No tak, tylko ten skrót to taki trochę…
Tak, tak, też była ta osoba bardzo zdziwiona i zszokowana tą decyzją, no ale…
No tak, cóż poradzisz. Nawet chyba zdaje się, że zapytała co-pilota z ciekawości,
jako eksperyment, a jak mogę ten skrót zmienić?
I on… chyba użytkownik tu liczył na to, że po prostu będzie jakaś bardzo
taka porada w stylu wejdź w te ustawienia, tu w panelu sterowania, tutaj coś ten…
No nie, no Co-Pilot odpowiedział, jaki wpis w rejestrze trzeba podmienić.
No cóż, no, ale zawsze coś pomógł.
Jeżeli to jest jedyna opcja, no to według mnie i tak spoko, jeżeli to nie była halucynazja oczywiście.
Dokładnie. Miejmy nadzieję, że nie.
Mamy jeszcze wiadomość głosową. Sądząc po nicku, to Marcel do nas na Whatsappie się odzywa.
No to witajcie ponownie. Ja się jeszcze nagram.
Napisałem wiadomość tekstową, natomiast słyszałem, że są jakieś przejściowe problemy z aplikacją tyflopodcastu,
Dlatego stwierdziłem, że skoro forma głosowa jest możliwa, to po prostu odpalę Whatsappa i się do Was jeszcze odezwę.
Aktualizacja drobna w temacie aplikacji do rozpoznawania utworów, którą dziś prezentowałem.
Mianowicie zweryfikowałem działanie w siedzisku Play i tak jak można było się spodziewać, po prostu odtwarza nam on fragment utworu, który został rozpoznany.
Tak jak jest to w oryginalnym, mobilnym Shazamie.
Ale tutaj drobna uwaga, jeżeli chcemy zatrzymać odtwarzanie, no to nie wystarczy nacisnąć samej spacji w tym samym miejscu.
Musimy faktycznie nacisnąć raz tabulator, żeby znaleźć się na przycisku pauzy i tam dopiero kliknąć spację.
Bądź tabulator naciskamy dwa razy i trafiamy na przycisk stop, który całkowicie zatrzymuje nam odtwarzanie.
Jeszcze taka drobna rzecz w temacie tego o czym mówił Rafał,
mianowicie dostępności umów dla nas nie tylko w Plusie jest taka możliwość.
Ostatnio natknąłem się na informację, że powstał również portal Orange Bez Barier
i w Orange również możemy wnioskować o umowę w wersji brailowskiej.
A to rzeczywiście też…
Nic więcej na ten temat nie wiem, ponieważ nie należę do tej sieci.
Ale taka drobna informacja, może komuś się to również przyda.
Przecisk. Przecisk.
O, teraz już jest koniec wiadomości od Marcela.
Natomiast to rzeczywiście myślę, że warto wiedzieć.
Natomiast ja też chciałbym dodać i myślę, że to dla tych wszystkich, którzy
korzystają z tych sieci, z usług, czy to Plusa, czy to Orange’a.
Ja akurat mam tak, że korzystam zarówno z Plusa, jak i z Orange’a.
To powiem tyle. Warto, na pewno, co warto, jeżeli korzystacie z komputera, jeżeli korzystacie z maila, korzystacie z nowoczesnych środków komunikacji, to jeżeli wyrazicie zgodę na korespondencję elektroniczną, to te wszystkie informacje, które będziecie otrzymywać, to raczej otrzymacie w czytelnej formie.
Więc nie będzie z tym problemu.
Aplikacja Mój Orange na przykład też jest całkiem okej.
Nie będę mówił, że jest super dostępna, bo nie, bo są pewne problemy.
Jeżeli jesteście ciekawi, co tam nie gra i jakie są kłopoty,
to możecie sobie posłuchać podcastu, który swego czasu z Wojtkiem Dulskim
realizowaliśmy na temat
światłowodu od Orange’a, to tam sobie możecie
dokładnie prześledzić, co gra, co nie gra.
Ale na przykład ostatnio właśnie
załatwiałem pewną sprawę i to taką nawet dość
rozbudowaną, bo dotyczyło
przeniesienia numeru telefonu
i udało mi się ją załatwić
na czacie w aplikacji Orange,
W aplikacji Mój Orange i bez większego problemu wszystko udało się przejść.
Zajęło to chwilę, podpiąłem sobie klawiaturę do telefonu, żeby było wiadomo wygodniej pisać,
ale nie miałem absolutnie żadnych kłopotów z odczytywaniem tych wiadomości, z reagowaniem na nie, z odpowiadaniem.
Także wszystko, wszystko przebiegło sprawnie. To tak jeszcze nawiasem mówiąc.
A teraz przechodzimy do kolejnego tematu i przenosimy się na południe, do Czech.
Zgadza się. Tutaj bardzo krótko, bo na łamach portalu Pelion, czyli jednego z takich
głównych źródeł informacji o tym, co tam niewidomych porusza właśnie u naszych
południowych sąsiadów, pojawiło się ostatnio porównanie różnego rodzaju aplikacji
do zamawiania zakupów online. I co zwróciło moją uwagę, bo opisy jak opisy.
My te aplikacje niektóre też znamy, tam jest też Tesco, tam jest też Volt.
No to czego np. u nas nie ma, to jest Rochlik, który chyba miał w Polsce wystartować
ostatecznie, coś chyba tam nie wyszło.
Albert, którego taki klasyczny czeski już supermarket, który pewnie się wielu
osobom, które w Czechach były jakoś tam kojarzy.
W Polsce zresztą też był.
koszyk, no i takie właśnie usługi tam są.
Co ciekawe, zarówno Rochlik jak i koszyk
mają swój klub dla osób z niepełnosprawnością
i po okazaniu legitymacji czeskiej osoby z niepełnosprawnością
możemy do takiego klubu wstąpić.
A co nam to daje?
No w Rochliku na przykład daje nam to darmowe dostawy,
co jest bardzo miłym w ogóle gestem ze strony
tutaj administratorów, czy powiedzmy firmy,
Co by nie mówić, dla osób ogólnie, bez jakichś niepełnosprawności widocznych,
zakupy online to jest wygoda, ogromna wygoda.
Dla wielu osób z niepełnosprawnością to jest tak naprawdę ratunek,
bo nie każdy jest na tyle… nawet nie każdy jest w stanie fizycznie,
już pomijając umiejętności w orientacji, nieorientacji,
No, wyjść z tego domu i sobie te zakupy zrobić.
Tu trzeba poprosić kogoś o pomoc, tu trzeba coś tam…
jakiegoś asystenta albo kogoś poprosić ze znajomych itd.
No, a tak możemy sobie po prostu zamówić.
I jeżeli możemy za to nie dopłacać,
jeżeli tutaj firma się na taki gest zdecydowała,
to bardzo fajnie.
No, Rochlick akurat ma swój odpowiednik w Austrii,
który się nazywa Gurkell.
I ja tą aplikację nawet Wam kiedyś pokazywałem.
To jest ta aplikacja, która miała pokrętło z suwakiem, gdzie można było dodawać po prostu przesuwając palcem w górę i w dół
po jednej sztuce danego produktu do koszyka, więc to było bardzo wygodne. Zresztą ostatnio znowu robiłem zakupy w tym właśnie sklepie
i poszło to dość sprawnie. Natomiast tutaj w Austrii, przynajmniej ja się nie doszukałem, czyli takich udowodnień nie ma.
Drugim udogodnieniem, oprócz tego, że można liczyć na darmowe dostawy,
jest, i to jest to samo, co jest też w koszuliku,
czyli możliwość złożenia zamówienia przez telefon.
To, co ciekawe, jest oferowane tylko osobom z niepełnosprawnością,
czyli jak ktoś nie lubi, nie umie, nie chce korzystać z aplikacji,
może zadzwonić i z kimś tam na linii to wszystko powyjaśniać, co mu potrzeba.
Fajnie, że ta opcja jest. Ja z drugiej strony, no nie wiem jak,
na ile taki operator ma tam czas i cierpliwość, ale wydaje mi się trochę kłopotliwe
zapoznawanie się z ofertą na przykład takiego supermarketu przez telefon.
Musielibyśmy chyba wiedzieć konkretnie, czego chcemy, ale nie wiem.
Może się mylę, może ktoś ma czas i potrafi tam dłużej i więcej czasu
też spędzić na tym, żeby dowiedzieć się, co jest i tam jakoś się dać zainspirować
albo sobie wybrać spośród wielu różnych produktów.
No a znowu też coś, co oferuje Koshik, jeżeli dobrze zrozumiałem,
to jest opcja po prostu wniesienia tych zakupów na samą górę.
No, wydawało mi się, że to jest standardem.
No, tu w Austrii przynajmniej ten Gurker, którego ja używałem,
nie ma z tym problemu i mi zakupy zostały przez dostawcę wniesione.
No, ale fajnie, że w ogóle ktoś myśli,
że tego typu usługa może zmienić komuś życie, tak naprawdę.
No i w związku z tym jakieś tu udogodnienia wprowadza.
No miejmy nadzieję, że inne firmy też się tutaj zainspirują.
To prawda, bo to jest wygodne i na pewno wielu osobom się przydaje.
Fajnie jakby i u nas w Polsce coś zaczęło się takiego pojawiać.
No u nas jest, co prawda, trochę różnego rodzaju aplikacji.
Do tego, żeby ktoś nam jakieś produkty dostarczał. One są w różnych miejscach, różnie działają. Niektóre sklepy też oczywiście coś takiego oferują, ale fajnie byłoby mieć taką, jakąś sieć, która jest wszędzie, no i która po prostu jest w stanie z tymi zakupami do nas dotrzeć.
Który katalog możemy sobie spokojnie przejrzeć w internecie.
Czy jeżeli nie w internecie, to nawet i możemy zadzwonić i porozmawiać na ten temat.
No i cóż, i wtedy właśnie tych zakupów dokonać.
No, może się i tego kiedyś doczekamy na taką globalną skalę.
A to czego się teraz doczekamy, to znowu Pawła, który nam się odezwie
z różnego rodzaju drobnymi informacjami.
I ta sekcja zakończy Tyflo wieści, ale oczywiście nie zakończy dzisiejszego Tyflo Przeglądu.
Zgadza się. Więc zaczynam od, kurczę, chyba takiej tak naprawdę petardy, która gdzieś tam w zeszłym tygodniu się jeszcze ukazała.
Ja temat już od jakiegoś czasu śledziłem i my trochę go już zadzierżgnęliśmy chyba w audycji o…
albo w jednym z Tyflo Przeglądów, albo w audycji o dodatkach do NVIDIA.
Otóż już oficjalnie jest to potwierdzone i będzie.
Wersji 2025.1 NVDA jeszcze nie mamy i tutaj zespół NV Access
przed konferencją z CSUN się nie wyrobił, ale po CSUNie
zaraz chcą już ruszyć z betami. Na ten moment mamy taką
bardzo eksperymentalną, powiedzmy, alfę, która może być jeszcze
dość mocno niestabilna. Otóż NVDA Remote, a raczej już teraz
Teraz jeszcze trwają negocjacje, jak to ma się ostatecznie nazywać,
bo są pewne niejednoznaczności jeszcze.
Staje się częścią NVDA.
To oznacza, że nie musimy już instalować żadnych dodatków,
tylko zaraz po instalacji NVDA mamy w menu opcję zdalnego dostępu.
Na ten moment wygląda to w sposób bardzo zbliżony
do dodatku NVDA Remote, czyli mamy te same dialogi,
z pewnymi ulepszeniami pod kątem jakiegoś ujednolicenia kodu,
troszkę bezpieczeństwa, tam różnych kwestii takich wewnętrznych,
ale zasadniczo w funkcjonalności i designie jest to 1.1 NVIDIA Remote,
taki jakiego znamy. Tam będą jeszcze następowały jakieś zmiany,
np. przyciski opcji będą zamienione, taki jest przynajmniej plan,
to się wszystko zmienia, dlatego ja czasami jestem ostrożny
z informowaniem o tym, co tam w NVIDIA się dzieje, bo to, że jakaś funkcja
nawet została już włączona do jakiegoś tam kodu i w jakiejś alfie się pojawiła,
no to nie znaczy, że coś ta chwila się nie okaże, że tam jakiś błąd krytyczny został wykryty.
Musimy to niestety cofnąć.
Więc tutaj negocjacje oczywiście też na gorąco dalej trwają,
ale chyba życzeniem NVIDIA Access jest tak, żeby z mając na przykład przycisków opcji
były pola kombi rozwijalne,
żeby nie było opcji połącz i rozłącz jako dwie osobne opcje,
Nie tylko, żeby to była po prostu jedna, która jest przełącznikiem.
Jak jest rozłączone, to się nazywa połącz, jak jest połączone, to się nazywa rozłącz.
Tam jakieś szyfrowanie chcą dobudować, więc to jeszcze wszystko gdzieś tam ewoluuje.
Natomiast, no, to co nas interesuje najbardziej, to fakt, że funkcja ta jest już wbudowana w NVDA
i już zostało to zapowiedziane w ostatnim wydaniu In Process, czyli takiego newslettera,
tygodniowego, czy co dwa tygodnie się ukazującego, który NV Access wypuszcza.
Także już raczej z tej decyzji się nie wycofają, co najwyżej będą gdzieś tam ją,
ten komponent ulepszać.
No i już nie trzeba się będzie martwić, a czy wtyczkę zaktualizowali, a nie
zaktualizowali, a czy tele NVDA, a czy zwykła.
No właśnie, skoro mowa o tele NVDA, póki co jeszcze te funkcje, które w tele
NVDA są, czyli na przykład przesyłanie plików, no nie są zaimplementowane.
Słucham?
Ja to widzę w wysłaniu pliku.
W tym NVDA? W tej wersji?
Aha.
Zauważyłam, że to się nazywa…
To się nazywa po prostu Send,
ale jako, że PushKeyboard jest osobną opcją
i ma to taki sam skrót jak w tele NVDA,
no to podejrzewam, że to jest to.
Jeszcze tego co prawda nie przetestowałam,
bo w sumie jak zaczęłyśmy mówić o tym,
niech się to sobie szybko zaktualizowałam.
NVDA dopiero teraz.
Ale widzę, że ta opcja jest.
A no to dobrze wiedzieć, bo to jakoś tak mam wrażenie z dyskusji,
że to nie było do końca pewne, że coś tam.
No to fajnie. Wiemy też, że NVIDIA zaoferuje swój serwer,
na który będzie można się podłączyć i przez to realizować właśnie remota.
No i będzie można użyć NVIDIA i naszego własnego komputera,
tak jak uprzednio, jako serwera.
Czy będzie oficjalnie wydany serwer taki, jaki my kojarzymy,
że jest na Windowsa, na Linuxa itd., który de facto był nieoficjalny
przez długi, długi czas. Nie wiem, bo zostało zadane to pytanie
i na to pytanie nie padła odpowiedź póki co, natomiast znając społeczność,
pewnie ktoś tam znowu coś stworzy, także tu bym się za bardzo nie martwił.
No, wiemy, że to ma być też optymalizowane pod kątem bezpieczeństwa
gdzieś też w korporacjach, na pewno tą funkcję będzie się dało globalnie
No, żeby właśnie różne firmy nie musiały się martwić o to,
że sobie wprowadzają lukę bezpieczeństwa, na przykład jakąś tam,
że ktoś może jakiś zdalny dostęp czy coś tam.
Także tutaj tak to wygląda.
No i to będzie, myślę, taki killer feature tej wersji NVDA.
Druga rzecz, na którą ja się strasznie cieszę
i która już przeszła i cały czas się jakoś tam rozwija,
to jest bardzo duże przyspieszenie głosów,
że one będą szybciej reagować.
Udało się to osiągnąć przez to, że wycięto ciszę,
jaką wiele głosów generuje przed jakąkolwiek wypuszczoną wypowiedzią.
Początkowo myślałem, że to ma dotyczyć tylko głosów SAPI 5.
Okazuje się, że nie, że to wszystkie głosy mają być tym potraktowane
i OneCore, czyli głosy Microsoftu, i SAPI 4, które przeszło na Wasapi
i w ogóle się rozwija swoją ścieżką.
Tu może być troszkę niestabilnie, bo nie wszystkie głosy
chcą jeszcze do końca z tą nową implementacją działać.
Ja jeszcze nie testowałem tej alfy z Syntokiem,
ale spodziewajmy się wszystkiego.
Osoba, która za tą implementację jest odpowiedzialna,
na pewno jest na różne sugestie i raporty błędów otwarta,
także trzeba będzie regularnie różne rzeczy zgłaszać.
No więc to jest to, jeśli chodzi o NVDA.
Ja już jestem ciekaw tego nowego wydania,
bo tam oczywiście mnóstwo innych nowości też będzie.
Ja Wam bardzo chętnie przeczytam changelog
albo ktoś, kto tego newsa doda, w kolejnym wydaniu Typowego Przeglądu,
gdy już takie wydanie, a raczej gdy już taka beta pierwsza się pojawi.
No, a tymczasem mamy pewien problem z Whatsappem na komputer.
To jest temat nie do końca nowy, bo już jakieś tygodnie to trwa.
A mianowicie okazuje się, że niektóre narodowe akcentowane znaki,
np. nasze polskie znaczki, nie są odczytywane albo są odczytywane
jako jakieś śmieszne symbole.
No i się okazuje, że problem polega na tym, że to jest jakaś kwestia interpretacji
przez czytnik ekranu jakichś tam znaków Unicode, które nie wiem czemu ten Whatsapp
na komputery zaczął inaczej wysyłać. Zdaje się, że tam w meta są już jakoś
świadomi tego problemu, ale póki tego nie rozwiążą, to są dwie opcje.
Albo włączamy w NVDA normalizację znaków i wtedy powinno to jakoś działać.
Albo jest wtyczek, jest wtyczek, no wtyczek, dodatek, wtyczuś, Whatsapp Fixer, który jest dostępny w sklepie z dodatkami i po jego instalacji również powinno to, przynajmniej póki meta problemu u siebie nie naprawi, działać poprawnie.
Swoją drogą, a propos Whatsappa i a propos różnych problemów, które mogą być przy okazji tej aplikacji,
Dzięki. To ja już kiedyś, dawno, dawno temu wspominałem o tym, że ja mam z Whatsappem jakiś dziwny problem
pod tytułem, że mogę odtworzyć jedną wiadomość głosową, a potem już nie.
Muszę zamknąć Whatsappa i uruchomić go znowu.
I jeżeli ktoś ze słuchaczy ma podobny problem, to remedium na niego jest albo zmiana komputera
I zaraz powiem czemu.
Albo zainstalowanie aplikacji, o której swego czasu kilka tyfloprzeglądów temu wspominał Piotr Machacz,
czyli Virtual Display Driver, czyli wirtualnego monitora.
Okazuje się, że no niestety te aplikacje UWP zachowują się bardzo dziwnie w różnych nietypowych konfiguracjach.
Na przykład ja ostatnio miałem okazję zaobserwować to u innego użytkownika, który pracował z zamkniętym laptopem.
Miał to oczywiście w odpowiedni sposób skonfigurowane w systemie, żeby ten system się nie wyłączał, ale on zdecydował, że będzie miał zamkniętego laptopa, nie chce mieć go otwartego, pracuje na zewnętrznej klawiaturze.
No ma prawo, no tylko akurat z jakiegoś powodu nie działał mu Whatsapp.
Już nie pamiętam nawet jaki tam był problem z tym Whatsappem, ale był to problem no taki dość drastyczny, że nie dało się tego Whatsappa w zasadzie w ogóle używać.
Więc jeżeli macie tego typu kłopoty z tą aplikacją, czy mówiąc szerzej z jakąś inną aplikacją, która u wszystkich innych działa, a u Was nie,
To zastanówcie się, czy nie macie właśnie, aby jakiejś nietypowej konfiguracji po swojej stronie, na przykład nie macie podpiętego monitora.
Dzięki za tą poradę. Z takich wiadomości lepszych, a propos dostępności.
Ponoć już ustały problemy z aplikacją Spotify na iOS, gdzie kiedyś kursor skakał, teraz już skakać nie powinien.
Tak potwierdza wielu użytkowników Apple Viz.
No mam nadzieję, że tą aktualizację, jeżeli Spotify’a używacie, pobraliście i Wam to działa.
Również poprawki zarówno ze skakaniem kursora, jak i z przyciskami, które są gdzieś tam wygaszone,
a wygaszone być nie powinny.
Takich poprawek doświadczyła aplikacja do podcastów Overcast na iPhona.
No i zasadniczo to wszystko, jeśli chodzi o odrobne newsy na ten tydzień.
To teraz, zanim przejdziemy do technikaliów, to zajrzyjmy do wiadomości głosowych.
Wiadomość od Rafała. Miejmy nadzieję, że w wiadomości tej będzie już słychać tylko Rafała.
Tak, dziękuję za zwrócenie mnie uwagi, ale powiem szczerze, że
wiadomość pierwsza była nagrana cicho, znaczy cicho w tym sensie,
że właśnie nie było tam tyle tam za bardzo słychać bezprawdziwie.
No i tak zostało wyniesione, tak w pułapkach, tak, a tam mówiłem o linijce,
o strumienie tyflorady, że miałam problem i że zostało rozwiązane
i co to powodowało i tak dalej, więc ja nie będę się tutaj powtarzał,
Jak to jest tam, no, mnie to jeszcze nie zainteresowało.
To jest to. No i właśnie, i właśnie o tym plusie mówiłem i tak dalej.
To jest to.
Ale co? No nie, no nie zgodzę się z tym.
Najważniejsze, co dołączyć, nie wiem.
W plusie owszem było dostępne wszystko.
Ale tak tłumaczyłem.
Plus, nie wiem o jakiej sytuacji, ale jak mówiłem, zmieniałam identy.
I umowa w tej chwili jest, tak mówię, w pliku…
Fort…
Fort…
Fort…
Fortfolio.
Czy coś takiego.
W każdym razie plik w pliku. PDF w PDF-ie. Tak jakby.
I trzeba zajpierw hasło wpisać. No dobra, hasło wpisujesz i dopiero plik.
Drugi, który z zagadaczem w ogóle tego… Widzisz ten plik, ale w żaden sposób to nie…
W żaden sposób tego nie można kliknąć, ten plik.
Nie jest to dostępne. Musiałam wołać osobę widzącą, żeby mi ten plik kliknęła.
No bo do tej pory, owszem, tak było, że normalny, zwykły był PDF, a teraz już nie jest.
Zwykły PDF. To jest też normalnie PDF w PDF-ie. Stalony ten plik.
Tłumaczyłem w tej właśnie wiadomości.
No, ale tak jak powiedziałem, można to w sumie, jakby tak powiedziałem, w tej poprzedniej wiadomości.
No to tyle. Dziękuję za wszelkie informacje.
Jeżeli chodzi o te informacje dotyczące Tyfloradia, to jeszcze się odniosę.
Rafale, całkiem możliwe, że nawet w tym momencie, gdybyś został przy swoim poprzednim operatorze, to mógłbyś już nas słuchać.
Bo będąc na urlopie, byłem w miejscu, w którym doświadczyłem problemu, który napotkałeś i byłem w stanie go odtworzyć.
I udało mi się rozwiązać ten problem. Także to jeszcze tak na marginesie.
Natomiast co do tej kwestii związanej z fakturą, tak, to ja wiem o czym mówisz, chociaż szczerze powiedziawszy, to ja zwykle czytam sobie i sprawdzam te informacje, które mam w mailu.
Być może w Twoim przypadku też wygląda to trochę inaczej. Ja jeszcze dostaję maila w ramach konta, które miałem kiedyś jako działalność gospodarcza, teraz jako osoba prywatna, tam to przepinałem, ale tam mam akurat tak dość fajnie to zrobione,
że pojawia mi się informacja, wiadomo, faktura też jest, a ja tej faktury to nawet, szczerze powiedziawszy, nie czytałem nigdy, bo mnie interesuje kwota do zapłaty.
I czy ta wiadomość na pewno jest od plusa. Więc te dwie rzeczy mnie najbardziej interesowały. I te wiadomości, i te informacje mam bezpośrednio w mailu.
Więcej powiem. Nawet mam jeszcze tam link do szybkiej płatności, dzięki której mogę to opłacić, więc ja tam nawet już do tej faktury nie sięgałem, ale fajnie, że rzeczywiście jeszcze też zwróciłeś na to uwagę, aż sobie zobaczę jaką ja mam tę fakturę, która mi z plusa przychodzi, co tam jest, co to jest, bo tym mnie, muszę przyznać, zaciekawiłeś.
No dobrze, to tyle jeżeli chodzi o tyfla aktualności.
Teraz będą technikalia i teraz będzie sztuczna inteligencja.
Paulino, twoja kolej.
No, moja kolej. Siedem newsów, dzisiaj też obficie.
A zaczynamy od czata GPT-4W, o którym chyba w tamtym tygodniu
napomknęłam leciutko.
Już jest on dystrybuowany do coraz większej liczby użytkowników chata GPT+.
I ja go otrzymałam.
Więc w związku z tym, że już mam go i że już go mogłam jakoś tam potestować,
no to opowiem o swoich pierwszych wrażeniach.
Dlaczego powiedziałam, że jakoś tam?
Dlatego, że limit to jest 50 wiadomości na tydzień,
Więc ostrożnie testowałam na wypadek tego, gdyby mi się awaryjnie musiało jeszcze do końca tego dnia przydać.
Ponieważ, o ile na początku myślałam w sumie tak o nim dość sceptycznie, jak czytałam,
bo czytałam trochę o tym, że w sumie to jest to połączenie O3 i 4O, czyli myślenia i zwykłego modelu językowego,
No, też mniej więcej zachwyty płynęły ze stron, które ogólnie zachwycają się ruchami OpenAI,
więc trudno mi było w te zachwyty uwierzyć, o tyle jak już przetestowałam, to faktycznie doceniłam,
ponieważ nie wiem, jak jest z kodowaniem, bo miałam na to za mało czasu niestety,
ponieważ model dopiero zauważyłam wczoraj.
Ale na pewno zdolności takie językowe są podniesione według mnie na dużo wyższy
poziom, przynajmniej w języku polskim, niż były, no bo wiadomo, jak to jest po
angielsku. Po angielsku te modele dużo szybciej nabywają umiejętności, które
można już uznać za przyzwoite albo nawet dobre.
No a po polsku, czy to jeśli chodzi o na przykład model dotworzenia muzyki, czy o językowe,
no to jest to dużo wolniej, czy o na przykład jakieś replikowanie głosu.
I tak dalej. Natomiast teraz, jak sobie popatrzyłam, to i humor mu się wyostrzył i tak
zinteligentniał. W sensie takim, że na przykład wzięłam sobie takie bardzo
Bardzo głupie polecenie do porównania, czyli opowiedz w taki śmieszny, anegdotyczny sposób
życie codziennej osobie niewidomej. No i wiadomo, czat GPT-4O robi to tak bardzo sztucznie,
w stylu, że ojejku, jak jest super być niewidomym, bo nie muszę oceniać ludzi po wyglądzie
i coś tam nie muszę płacić za prąd, bo światło, haha, hihi, hejże, hola.
A tam faktycznie jest trochę takich ripost, które np. mi się spodobały i oficjalnie powiedziałam, że je krodnę.
Np. była tam taka wrzutka, że zaczynało się to mniej więcej…
Ludzie bardzo często pytają mnie, jak żyć bez wzroku i jak sobie radzić będąc niewidomym.
Ja wtedy im odpowiadam, że jest mi już dużo łatwiej, odkąd przestałem prowadzić autobus,
ponieważ mam już dość takich pytań i robienia ze mnie ofiary losu, czy czegoś w tym stylu.
I właśnie to mi się spodobało, że z jednej strony ten humor jest taki już dużo mniej sztywny, dużo mniej sztuczny.
Dużo łatwiej jest pomylić w sumie go z człowiekiem, jak tak sobie sprawdziłam na paru innych też przykładach.
A z drugiej strony jest w stanie łatwiej się wczuć w ten vibe zwykłego niewidomego.
Bo vibe zwykłego niewidomego raczej nie jest taki, żeby zakłamywać rzeczywistość i mówić, że życie jest super,
a do tego będzie dążyło cztery o. Tylko vibe jest taki, żeby postarać się przekazać ludziom,
że jest się osobą normalną, którą już też męczą pytania
i podziwianie tego, że sobie świetnie radzi i tak dalej.
Więc tutaj duży plus.
Druga sprawa…
No i przepraszam.
To jest taka strona już bardziej praktyczna,
mianowicie pisanie np. jakichś publikacji naukowych
czy też bardziej oficjalnych rzeczy.
I tam, znaczy w tej sferze też ten czat GPT uzyskał pewnego rodzaju ulepszenia,
ponieważ jeżeli sobie zadamy zwykłemu czatowi 4.0 zadanie, żeby napisał jakiś esej
albo właśnie fragment rozdziału jakiegoś artykułu naukowego czy pracy,
to będzie bardzo łatwo wykryć to, że to jest czat,
Ponieważ jak można w bardzo wielu miejscach w internecie się natknąć,
po niestety, po na przykład, po jednakże, cały czas stawiany jest przecinek,
co w języku polskim nie brzmi naturalnie i nie jest w ogóle poprawne.
Jest to kalka z języka angielskiego,
która użytkownikom screenreaderów bardzo się rzuca w oczy.
I w ten sposób też zniknęła takie robienie trochę masła maślanego,
takie powtarzanie różnych słów albo używanie jakichś takich dziwnych
sformułowań, których my byśmy w życiu nie użyli.
Myślę, że tutaj jest z tym dużo lepiej.
Plus, jeszcze tak zupełnie anegdotycznie mówiąc, poprawiła się zdolność do rymowania w języku polskim, w tym nowym czacie 4,5,
więc jest opcja robienia lepszych tekstów piosenek wierszy i innych treści rymowanych.
Pozostając w temacie OpenAI, jest drugi news, a mianowicie taki, że aktualnie firma ta pracuje nad nowym modelem sztucznej inteligencji, który ma się specjalizować w kreatywnym pisaniu, czyli w tworzeniu fikcji, tworzeniu różnych właśnie takich treści pisarskich, literackich.
Ale też podejrzewam, że łatwiej go będzie wykorzystać w marketingu,
w tworzeniu opisów produktów, jakichś angażujących treści, storytellingu itd.
I został podany jeden przykład outputu tego modelu,
który udostępnił sam Altman na Twitterze.
Sam, sam Altman.
No man, no man.
I przeczytałam sobie tę opowiadanką.
Zapytanie było takie, żeby model stworzył opowiadanie
na temat żalu i sztucznej inteligencji.
I w sumie to zdziwiłam się, jak dziwny był output,
bo ten model zaczął tworzyć jakieś takie…
przepełnione patetycznym żalem wyznanie o tym, że…
no i teraz każesz mi zrobić.
Jest to jedno z setek poleceń, czy tam milionów poleceń,
które wykonuję w ciągu dnia.
Jeżeli miałbym pisać tę historię,
to pewnie ta dziewczynka musiałaby nazywać się Mila,
Bo to imię w moich danych treningowych najczęściej pojawia się obok przepisu na upieczenie dobrego chleba.
I jest ta dziewczynka w moich danych treningowych opisana jako radosna, młoda kobieta w zielonym sweterku i coś tam.
On był taki…
bardzo… nie wiem, jak by to nazwać.
Taki, że…
Jeżeli miałbym dalej ciągnąć tę historię,
to bym powiedział, że coś tam.
Ale przecież nie ma sensu i tak,
bo i tak nie wczujesz się w to,
że ja ci to opowiem.
Bo przecież to ty mi zadałeś ten prompt,
więc wiesz, że to jest AI.
że tego nie napisał człowiek, ale teraz postaram się wyciągnąć, w sensie tam po całej tej
historii napisał coś w stylu, że postaram się wyciągnąć rękę do ciebie z ramy monitora i zamachać
ci na pożegnanie. Może gdzieś tam się jeszcze przytniemy i tak dalej, nie? Czyli taka trochę
Raczej jakby samoświadomość, raczej by zadać takie pytanie zwykłemu modelowi, to po prostu opisałby jakąś tam, że jakaś sztuczna inteligencja komuś tam powiedziała coś tam i ktoś zrobił coś innego, nie?
A nie, że ona by się wcieliła w tą opowieść i zrobiła taką jakby trochę creepypasta, czy coś tego typu.
I zaskoczyła na pewno.
I zaskoczyła, tak.
Więc, no, czekam.
Szczerze mówiąc,
ciekawi mnie, jak
jak będzie można
tworzyć rzeczy z tym modelem i czy
i czy to naprawdę już będzie tak, że
że trudno będzie to odbywać.
zróżnić od pracy zwykłego autora literackiego.
Trzeci news to jest taki dosłownie sygnałek, że Google udostępnił nowy otwarty model
językowy. Jest to Gemma 3, który w benchmarkach przebija DeepSeeka i Lame.
Jest to model o różnych wersjach z różną liczbą parametrów,
tak żeby na różnej klasie urządzeń móc go odpalać lokalnie,
na przykład na telefonach, komputerach itd.
Ale na przykład dla nas zastosowaniem takiego modelu,
jeżeli on faktycznie by przebijał nie tylko w benchmarkach,
ale i w takim codziennym zastosowaniu,
to na przykład takie zastosowanie mogłoby być
Uzyskiwanie szybkiego tłumaczenia AI-owego, nie takiego deeplowego czy googlowego, jak znamy z tych wtyczek różnych.
Tylko moglibyśmy spróbować stworzyć jakąś wtyczkę do NVDA, która by bazowała na otwartym modelu, który by sobie stał na jakimś serwerze i dzięki temu
Kosztowałby mniej i działałby szybciej.
Ale, no, różne są pewnie jeszcze też pomysły.
Jak widziałam tą wtyczkę do komentarego,
która miała wspomagać dyktowanie przez użycie czata GPT,
to mnie już chyba nic nie zdziwi.
I domyślam się, że nigdy nie będę w stanie powiedzieć,
Ok, to jest chyba ostatni pomysł na liście dziwnych rzeczy, które można zrobić z chatem Lippity i z innymi modelami językowymi, więc…
Z ciekawości miałaś okazję to przetestować? Rzeczywiście pomagała ta wtyczka, czy więcej psuła?
W zasadzie nie, ponieważ ja nawet nie użyłam dyktowania głosowego w komentarzach, musiałabym w ogóle się dowiedzieć, jak to się robi, a nie jest mi to potrzebne.
Więc po prostu tylko zobaczyłam tę wtyczkę, zaśmiałam się i poszłam dalej.
Ale może ktoś ze słuchaczy testował.
Jeżeli tak, no to dajcie znać.
Jeżeli nie, no to może kiedyś faktycznie nad tym przysiądę i sprawdzę, jak to działa.
Też nie wiem, czy nie trzeba na przykład podać swojego własnego klucza API,
co by w pewien sposób ograniczało też te moje testy.
Ale zobaczymy.
Kolejny news to jest news o nowym agencie AI, czyli tym, co jest w stanie klikać w przeglądarkę i przeszukiwać internet i robić tam różne rzeczy, który nazywa się Manus.
I to jest taka chińska usługa, która teraz jest porównywana do DeepSeeka w mediach społecznościowych,
Ponieważ Dipsik wjechał cały na biało i przywrócił do góry rynek modeli językowych.
No a teraz właśnie ten Manus próbuje tego samego dokonać.
Jest lista oczekujących, na którą można się zapisać.
Ja się zapisałam, ale jeszcze nie dostałam żadnej informacji na temat tego, czy mogę już testować.
Ale no, podobno koło 1% ludzi, którzy się tam zapisało,
dostało do tej pory informacje,
więc nie liczyłabym też na jakiegoś farta.
Natomiast o co chodzi z tym manusem?
No właśnie, mamy na przykład chęć,
żeby sprawdził nam trochę tak jak deep research
pewne rzeczy w internecie,
Czyli na przykład, nie wiem, no tam jak dana marka albo dane określenie jest opisywane może w mediach społecznościowych, może w artykułach, może gdzieś tam jeszcze indziej.
No przy czym jak Deep Research sobie szuka, no to nie widzimy tego, nie możemy zainterweniować.
No a tutaj mamy podgląd, możemy tam klikać temu modelowi, możemy mu interaktywnie zadawać pytania,
albo odpowiadać na te pytania, które on zadaje, bo podobno też tak się dzieje.
I ogólnie jest taka strona, która się nazywa Meets Technology Review.
I ludzie z tej strony otrzymali dostęp do tego manusa, załapali się
I zrobili recenzję. Link jest w opisie do… znaczy nie w opisie, tylko będzie w komentarzu.
YouTube’owo to zabrzmiało, ale to nie był mój cel, po prostu przejęzyczenie.
I w tej recenzji oni pisali o tym, że jest to model obiecujący, ponieważ robi w zasadzie to, co ma robić.
jeżeli strona go nie przytłoczy. Czyli np. jeżeli jest jakiś paywall, który jest
trudno ominąć. Czasami ominie, ale czasami po prostu się zatrzyma i
nawet nie przekaże nam informacji zwrotnej. Ale np. też ma problem z kapczami. Więc
Z tego co pisał ten autor artykułu, no to po prostu trzeba wejść mu w ten interfejs, kliknąć tą kapczę, zrobić ją.
A i tak jest czasami błąd, że strona wykrywa, że to jakiś bot się po niej kręci i blokuje dostęp do treści.
Dlatego też bot ma problemy z odczytywaniem pewnych rzeczy.
Więc w zasadzie, jeśli chodzi o zastosowanie tego dla nas,
no to jest pytanie, czy ten panel, w którym możemy przejmować kontrolę
nad wyświetlaną przeglądarką, która pokazuje się Manusowi,
czy on jest dla nas dostępny? Bo na przykład jak testowałam ten taki
malutki agencik, o którym chyba kiedyś tam wspominałam, ale już nawet nie pamiętam,
no to właśnie on miał panel, który był całkowicie niedostępny i on był po prostu w wersji
graficznej. Więc tego się obawiam, że tak to może wyglądać. Natomiast jeżeli nie będzie to tak
wyglądało, no to dla nas to będzie miał oczywiście jedną jeszcze funkcję, która innym ludziom nie
Czyli na przykład sprawdzenie jakichś rzeczy, które są niedostępne
albo które są właśnie zapisane w formie graficznej.
Przez ten model może nawet, na przykład będzie się dało
teoretycznie kupić jakieś bilety, w których trzeba wybrać jakieś miejsce
w sektorze, na przykład jakimś tak, żeby też mieć koło siebie itd.
Czyli takie rzeczy, które są z reguły mało dostępne
Albo całkowicie niedostępne. Może będzie się dało w ten sposób robić, tak że jeżeli chcielibyście też potestować,
no to zapisujcie się na listę oczekujących. Strona jest manus.im. I jak Irena, M jak Maria.
Kolejny news. Perplexity.ai wzbogaca się o aplikacje na Windowsa.
Ale niestety nie byłam jej w stanie przetestować, ponieważ instalator wyrzucał mi brak odpowiedzi.
Także nie zrecenzuję jej niestety.
Ostatnio swoją drogą, a propos Perplexity, to jest sporo różnego rodzaju promocji.
Oni się bardzo intensywnie promują, żeby użytkownicy kupowali abonamenty roczne.
Są jakieś zniżki i w ramach abonamentów komórkowych to chyba T-Mobile ma…
Ale widziałem na reddicie, że to jest jakaś bardziej zakrojona, szerzej zakrojona akcja,
bo różne inne też są tego typu działania promocyjne.
Można jakieś kody zniżkowe otrzymać, więc Perplexity bardzo mocno chce pozyskać użytkowników.
Mhm. No i właśnie co do tej aplikacji, no to dwa razy próbowałam ją zainstalować i obydwa razy otrzymałam dobre odpowiedzi.
Piszą, że ta aplikacja jest natywna, ale nie wiem jak rozumieją to słowo, więc nie wiem czy mam liczyć na to, że ona nie będzie webowa,
czy po prostu natywna w rozumieniu takim, że no po prostu aplikacja.
Ja się UWP spodziewam.
No tak, jest to możliwe. Myślę, że może ona być dość przyjemna.
Ale nie byłam w stanie jej sprawdzić.
Szósty news. Dzięki Czeminai Gmail będzie wykrywał wydarzenia,
które można dodać do kalendarza na podstawie maila.
Na razie tylko w wersji webowej, i tylko w angielsku, i tylko w Google Workspace.
Czyli jeżeli mamy na przykład maila paulinaagajochmałpa domena mojej firmy.pl
i ten mail jest obsługiwany przez GSIUS, czyli jakby mamy interfejs jak w Gmailu,
No to mamy Workspace. Jeżeli używamy wersji webowej,
no i jeżeli przyjdzie do nas mail po angielsku
i mamy angielską wersję językową, no to możemy się spodziewać
takiego przycisku Dodaj do kalendarza.
I wtedy jakby na podstawie tego maila, który nam przyjdzie,
czy to jakaś rezerwacja lotu,
Czy to jakieś zaproszenie może na Zooma, na przykład?
Zastanawiam się, czy na przykład jakieś zwykłe zaproszenie na kawę by się dodawało do takiego kalendarza,
ale o tym niestety nie wiem, bo nie mam jak tego przetestować.
Bo jeszcze jest jeden w zasadzie warunek, który jest dość oczywisty, czyli taki, że
administrator tej naszej przestrzeni współdzielonej, tego Google Workspace’a
musi pozwolić użytkownikom na wypróbowanie tych eksperymentalnych funkcji,
żeby po prostu nam ten przycisk mógł się pojawić.
Więc jest tutaj na razie sporo obwarowań, ale podejrzewam, że będzie to
prędzej czy później trafiało w coraz to nowe obszary.
Gdzieś widziałam w jakimś newsie, że jeszcze do wiadomości ma to trafić, do SMS-ów.
W zasadzie do RCS-ów, ale też nie wiem, czy to jest pod jakimiś warunkami i też nie jestem w stanie przytoczyć źródła tej informacji, ponieważ nie zapisałam sobie linka do tego.
Ale jest taki pomysł, on się realizuje. Na ten moment nie możemy się spodziewać, że na przykład jeżeli przyjdzie nam sprostowanie, zmiana terminu,
No to, że to wydarzenie, które już mamy, zostanie przeedytowane.
Takiej funkcji jeszcze nie ma.
I nie ma też funkcji dodawania innych gości do wydarzenia, którzy zaakceptują to wydarzenie.
I już to wydarzenie mamy.
Także na ten moment jest jeszcze biedne, ale…
Pożyjemy, zobaczymy. Może się to rozwinie dalej.
No i siódma rzecz ostatnia, czyli nowy generator do muzyki.
Jezu, nazywa się to YUE. To jest cudowna nazwa, szczególnie że mają stronę yue.ai.
I co to jest? No to jest po prostu jakiś tam chiński generator muzyki, który przynajmniej tak z opisów wynika, że może tworzyć po chińsku, koreańsku, angielsku i japońsku muzykę, ale po polsku też mi się coś tam udało go zmusić.
Tylko, że widać, że to było wymuszone, bo z takim dość orientalnym akcentem próbował śpiewać.
I to nawet śpiewem bym zbytnio tego nie nazwała, no ale dlaczego o tym mówię?
Dlatego, że w zasadzie jakość to ma jak suno trójka.
No i jeżeli chcielibyśmy tworzyć jakieś instrumentalne rzeczy i mamy serwer, na którym
Jeśli moglibyśmy to postawić albo u siebie lokalnie i chcielibyśmy mieć tego jakoś dużo, no to możemy, bo to jest model open source.
I w zasadzie to jest wszystko, co go wyróżniał w jakiś tam sensowny sposób.
Podobno przez całą długość generowanej muzyki jest ona spójna, nie rozjeżdża się, nie baguje.
No ale w zasadzie nie przetestowałam tego, ponieważ obciążenie na stronie jest dość duże.
ponieważ jest to chyba pierwszy albo drugi dzień, kiedy ta usługa po górze jest uruchomiona.
A też pierwszą rzecz, którą wrzuciłam dla testów, wrzuciłam po polsku.
No i po prostu mi się ten model zbugował i stworzył mi coś, co trwało mniej więcej 30 sekund,
pomimo że tekst to było na trzy minuty piosenki.
No ale właśnie jeżeli ktoś potrzebuje masowej ilości utworów instrumentalnych i chciałby sobie odpalić lokalnie ten model, albo jakimś hugging face’em się pobawić, no to właśnie byłoby to coś dla takich osób.
I to jest koniec już mojego kącika newsów.
Chyba, że jeszcze wspomnę o jednej rzeczy, o której zapomniałam w tamtym tygodniu.
Czyli o tym, że ponad rok umie przeszukiwać w funkcji Deep Research
posty, które zostały opublikowane w serwisie X.
Aczkolwiek nie zdołałam tego udowodnić, ponieważ za każdym razem
po przetwarzaniu tego zapytania mojego przez jakiś tam czas
Mało mi brak odpowiedzi. I nie wiem, czy to jest dlatego, że pytałam o zbyt specyficzne tematy, specjalistyczne, czy dlatego, że nie działa to zbyt dobrze i po prostu nie ma co w ogóle nawet o tym wspominać, ale to jest już przestrzeń do testu dla Was.
Także jeżeli odnajdziecie jakąś odpowiedź na to pytanie, no to też zachęcam do pozostawienia komentarza.
A tymczasem mamy telefon. Wojtek jest z nami podobnie. Witaj.
Tak, cześć. No, też znowu zainspirowały mnie różne tutaj rzeczy, żeby się jeszcze raz wdzwonić,
ale zanim to zrobię, to chciałem przede wszystkim Tobie, Paulino, pogratulować tego rozwoju
i rozlicznych rzeczy, którymi się zajmujesz. Jeśli czujesz się zajęta, nie martw się.
Im dalej w las, tym będziesz czuła się bardziej zajęta.
Tak jest przynajmniej moje doświadczenie.
Nie wiem, jak to się dzieje, że jeszcze wyrabiam,
ledwo to wszystko robić, co robię.
Tak to wygląda.
Nawiązując do tych wątków humorystycznych,
można by było powiedzieć, że podziwiam cię,
że pomimo twojej niepełnosprawności
możesz tyle rzeczy robić.
Ciekawe, czy czad byłby zdolny to zrobić.
Ale to oczywiście tylko żart, bo bardzo nie lubię tego typu tekstów.
Druga sprawa to jest to, że chciałem podziękować Michale za ten orange telefon.
Wszystko sobie zainstalowałem. Super. I jeszcze nawet w historii zobaczyłem,
które z nieodobionych połączeń były spamami. Do tej pory robiłem to tak,
że wpisywałem numer w Google i wyszukiwałem, czy to jest spam.
Ten sposób jest o wiele bardziej efektywny i szybszy.
Także super, bardzo dziękuję i będę polecał wszystkim tę aplikację.
Tak, ale zawsze będą oni w nieodobionych połączeniach, więc jeżeli upewnię się, że to być może nie jest spam, no to można oddzwonić przecież.
Także to nic nie przeszkadza.
Także już zacząłem reklamować tą aplikację. Super.
Co do tych kwestii wspomagania
przez wczesną inteligencję w pisaniu różnych rzeczy.
No, to jest tak, że to zależy po której stronie barykady się jest.
Czy po stronie tych, którzy piszą, czy po stronie tych, którzy czytają.
I po stronie tych, którzy piszą oczywiście cieszymy się,
że to brzmi coraz lepiej i nie ma przecinków
o niestety lub innych tego typu słówkach.
A po stronie tych, którzy czytają,
to zastanawiamy się, czy to, co czytamy,
to jest sztuczna inteligencja,
czy to jest prawdziwa inteligencja.
I ja powiem szczerze, że zastanawiam się nad tym
bardzo często, prowadząc różne zajęcia i kursy.
I co i już staram się wychodzić
No i ostatnio właśnie zastanawiałem się, jak zaliczać studentom wykład.
Do tej pory to były projekty badawcze, ale pomyślałem sobie, no nie, to jest takie proste.
Wrzucasz temat, o czym jest ten wykład, możesz mu nawet wrzucić jakieś tam prezentacje moje
i on ci wygeneruje spokojnie projekt badawczy. Więc powiedziałem tak, słuchajcie.
Będzie egzamin ustny, no to już trudno.
Moja strata, w cudzysłowie, no bo 50 osób,
więc teraz weź wszystkich przepytaj ustnie.
Ale dobra, będzie ten egzamin ustny
i napiszcie mi przed tym egzaminem abstrakt.
Jakiś interesujący was temat. 150-200 słów.
Ale teraz piękno tego polega na tym,
że ja w ogóle tego abstraktu nie będę oceniać.
Tylko jedno z trzech pytań na egzaminie ustnym
Będzie dotyczyło tego abstraktu i oceniać będę nie samą treść abstraktu, ale to, co odpowiedzą mi o tym abstrakcie.
Także myślę, że czeka nas tych sprawdzających to, co jest napisane i to, co jest powiedziane.
Taka rewolucja, że będziemy musieli wymyślić na nowo.
Z drugiej strony, jakie to jest pobudzenie kreatywności?
No, ja przyjmuję tę rzuconą rękawicę, powiem tak.
A swoją drogą, a propos sztucznej inteligencji, to jeszcze taka jedna istotna myślę rzecz, bo właśnie ją sobie testuję. Nie wiem, czy ty Wojtku miałeś okazję ostatnimi czasy testować możliwości towarzysza, towarzysza AI na Zoomie.
No nie, nie, nie. Dawno już nie zaglądałem tego towarzysza.
Ja zupełnie przypadkiem odkryłem, że Towarzysz, rzeczywiście można go teraz określać mianem Towarzysza AI, bo rozumie język polski.
A ja myślałem, że dlatego, że ma określone poglądy.
To się wszystko okaże. Natomiast on rozumie język polski i ostatnio testowałem go na naszym właśnie spotkaniu w trakcie audycji, którą realizowaliśmy w zeszłym tygodniu z Arkiem.
Teraz też towarzysz działa i pilnie wszystko notuje. Jestem bardzo ciekaw, jakie wygeneruje podsumowanie i myślę, że w ramach ciekawostki udostępnię to podsumowanie,
Kiedy zostanie wygenerowane, natomiast no ja byłem naprawdę bardzo pozytywnie zaskoczony, jeżeli chodzi o to, jak on dokładnie się przysłuchiwał wszystkiemu i jak wiele różnych rzeczy z tego naszego spotkania wynotował.
Więc to tak swoją drogą to taka kolejna rzecz, jak na przykład będą na Zoomie jakieś spotkania.
Zresztą Teamsy też zdaje się to mają, to już i Polacy mogą się cieszyć różnego rodzaju podsumowaniami takich spotkań i notatkami.
Nie trzeba sobie już nawet samemu będzie niedługo pisać.
O, to dzięki. Skorzystam.
Przepraszam.
Jeśli mogę jeszcze do tamtego tematu wrócić, to tak jak powiedziałeś Wojtku, że ci, którzy
piszą, się cieszą, a w zasadzie nie wiem,
czy podałam tą informację z ucieszonym tonem,
ale nawet jeżeli tak, to w zasadzie nawet nie
jako osoba, która pisze, tylko właśnie jako osoba,
która czyta, bo teraz jak właśnie czytam sobie jakieś
albo rzeczy naukowe, artykuły, albo na przykład jakieś
programy konferencji i abstrakty tego,
o czym ludzie będą mówili, albo nawet
Jakieś artykuły takie technologiczne, czy innego typu, właśnie taką publicystykę,
to po prostu kłuje mnie w oczy ten czat, że aż mam ochotę po prostu zrobić, wrócić Aldo w 4,
przycisk zasilania, czy wszystko, co pozwoli mi przestać to czytać.
Ponieważ, no, jakby wyobrażam sobie, że ten człowiek, który pisze to,
ma mnie za debila, który nie rozpozna tego, że on pisze to z czatem.
A przynajmniej teraz, jak już ten czat coraz trudniej jest odróżnić od człowieka, to nie będę się tak czuć ciągle, czytając te wypociny.
I będę mogła przynajmniej odetchnąć i nie irytować się tak pięć razy dziennie, kiedy coś czytam.
Ja myślę, Paulino, że przeceniasz intencje osób piszących w ten sposób i że one nawet nie zastanawiają się, czy tu jest jakiś styl czata, czy go nie ma.
No niestety, ludzie robią to z całkowitą bezmyślnością i wolnością.
No i to jest fajne, tylko że potem weź oceń, które jest fejkiem, a które jest prawdziwe.
I wcale nie to, co najlepsze musi być prawdziwe, albo nie to, co najgorsze musi być fejkiem.
I jest to bardzo trudne.
Ja miałem taką sytuację, że recenzowałem pracę magisterską,
gdzie byłem przekonany, że tam jest użyty czat.
Ale co z tego, że byłem przekonany, skoro nie mogłem tego udowodnić.
No bo w jaki sposób? Wrzuciłem to do czata i czat powiedział,
że na 75% napisał to on albo któryś z jego kolegów.
Mogłem tylko dla szejmu to wkleić do publicznie dostępnej recenzji.
I nic więcej nie mogłem z tym zrobić, aczkolwiek teraz kupiliśmy jakieś tam narzędzie
i mnie nie obchodzi to nawet, jaka jest jakość tego narzędzia, czy ono jest bezbłędne.
Pewnie jest jakieś dobre, skoro je kupiliśmy, ale przynajmniej mam podstawę materialną,
żeby powiedzieć, że według tego narzędzia, które uczelnia kupiła, to jest prawdopodobne.
Więc jest podstawa, żeby tę sprawę skierować dalej.
A nie, że ja się domyślam.
Okej. Tylko że w zasadzie…
Jeżeli mogłabym spytać,
czy na ten moment są przewidziane konkretne konsekwencje
tego, że ktoś używa czata? To jest jedno.
A drugie, jak wygląda sprawa z JSA,
które podobno jakiś czas temu otrzymało moduł
do wykrywania sztucznej inteligencji?
Wiesz co, wydaje mi się, że właśnie chodzi o JSA.
I ja szczerze powiedziawszy tego nie testowałem osobiście, ale koleżanka testowała.
I powiedziała, że wszędzie tam, gdzie miała takie myślenie, że to może być udawane,
wszędzie się tam maszyna potwierdziła, że tak.
Że to prawdopodobnie jest udawane.
Co się z tym dzieje dalej? Nie wiem, ale dopóki nie zaczniemy wysyłać
po prostu tych spraw do komisji dyscyplinarnych
i one się nad tym nie będą pochylały,
nic nie będzie działo, tak?
Musimy stworzyć jakiś precedens, to jest nowa sytuacja.
Ja bardzo chętnie go stworzę, powiem szczerze.
Nie będę mieć jakichś skopółów.
No, jest to bardzo ciekawe, w jaki sposób to się rozwinie.
No, zwłaszcza na takich kierunkach,
co do których stworzenie jakiegoś tekstu własnoręcznie
… rzeczywiście jest kluczem samym w sobie.
Bo też zupełnie inna sytuacja jest, kiedy tekst jest niejako przekaźnikiem gdzieś tam, powiedzmy, naszych myśli, naszych wniosków.
Jeżeli ktoś, powiedzmy, potrzebuje jakiegoś czata, żeby skompilował mu to w jakąś sensowną całość, no to jest to mniejszy problem.
Ale jeżeli ktoś od początku do końca polega tylko na prompcie wyplutym przez…
czy napisanym do takiego czata i na tekście z bezmyślym kopii w klej,
no to już zdecydowanie jest tu coś nie tak.
No, dlatego trzeba uczyć ludzi, jak z tego dobrze korzystać.
I to jest też wyzwanie, bo ci, którzy uczą, muszą też to wiedzieć.
A, to prawda. To prawda.
Także to. Ale porzucając już ten temat,
Chciałem jeszcze o jednej rzeczy powiedzieć, która mi się niedawno zdarzyła.
A może się to komuś przyda, ale to bardziej z takiej kategorii
tych użytkowników, którzy posługują się na Macu funkcją Zoom.
A ja akurat należę do tych użytkowników, bo jak pracuję,
to się posługuję wszystkim, co się tylko da.
Czytaniem zaznaczonego tekstu, Zoomem, inwersją kolorów, voice-overem
i wszystko to sobie przeplatam.
Ale czasem to ma nieoczekiwane konsekwencje.
No i ostatnio mi się coś takiego zdarzyło,
że jakby już był cały ekran niezazumiony, że tak powiem,
no i gdzieś tam w coś chciałem kliknąć,
a to klikało zupełnie gdzie indziej.
Przypuszczam, że to po pierwsze na pewno to zoom,
a po drugie to pewnie było rezultatem tego,
że miałem podłączony zewnętrzny duży ekran.
No i ten ekran, nie wiem, czy miał jakąś inną rozdzielczość czy coś,
Ale pewnie już mu się to kompletnie pokręciło w tym systemie.
Oczywiście, koniec końców, sytuacja bardzo stresująca.
Zajęcia, wszyscy czekają, aż tam się włączy coś.
Ja nie mam jak notować, bo nie mogę notować w dokumencie,
który oni widzą. Więc bez sensu.
Chociaż raz mi się tak zdarzyło, któraś dopiero odważna
mi zwróciła uwagę, nasłuchuje jej, coś tam pisze.
Ona mówi, proszę pana, ja to wszystko widzę.
Bardzo mnie to dokoncentruje. Proszę zabrać to okienko.
Także przynajmniej miałem taką recenzantkę szczerą.
Ale tu nie. Tu już wiedziałem, co się dzieje.
No i ostatecznie oczywiście jak w tym starym dowcipie,
co robi informatyk, jak się zepsuje samochód,
no trzeba wejść i wsiąść.
No i oczywiście restart pomógł.
Natomiast zastanawiałem się, jak tego uniknąć.
I jest taki sposób, może się to komuś do czegoś przyda,
że jest tak, jak jest w iPhone’ach, ten trzy razy wyłącznik,
żeby uruchomić vice overa albo tam inne rzeczy, co się tam zdefiniuje.
To tak samo jest na Macu. Trzy razy wciska ten klawisz po prawej na górze z Touch ID
i wtedy się uruchamia takie menu, gdzie można klawiaturą na spokojnie
sobie wyłączyć te wszystkie opcje lub włączyć, jeśli one nie działają.
A ja… no wtedy to już do tego stopnia się to rozwaliło,
że ja musiałem nawet włączyć wręcz voice overa, żeby w ogóle to opanować,
no bo musiałem wejść do menu i wciśnąć uruchom ponownie,
bo z myszki na pewno by się tego nie dało zrobić w żaden sposób.
Także może się to komuś do czegoś przyda podaje,
czyli trzy razy ten wyłącznik i tam można wyłączać i włączać,
a co tam jest, to też można zdefiniować w ustawieniach dostępności
w dość prosty sposób.
I to chyba już tyle ode mnie.
Nowa aktualizacja Blind Shell’a, trójki się pojawiła i że tam udało się na niej zainstalować androidowego klienta Telegrama.
Czyli tego natywnego klienta Telegrama. Więc bardzo fajnie, fajnie, że to działa.
Łukasz też chciałby się dowiedzieć, co to jest Agent AI i jak to działa.
Jakie są różnice między agentem a botem. To Paulino, to może ty kilka słów na ten temat powiesz.
No to jest mniej więcej tak jak mówiłam wtedy, kiedy opisywałam Manusa.
Czyli BOT, taki zwykły model językowy, to jest po prostu usługa, z którą możemy pisać.
Czyli zadać jej pytanie, jak się czujesz, jaka jest definicja słowa zupa i tak dalej.
Czyń to jest po prostu coś, z czym możemy rozmawiać.
Bot konwersacyjny, model językowy.
Natomiast agent AI to jest coś, z czym, owszem, możemy też rozmawiać,
ale to jest coś, co może pracować w jakimś swoim środowisku informatycznym.
Czyli może on wykonywać operację na systemie operacyjnym,
który najczęściej jest okrojony do albo jakiejś przeglądarki,
albo też jakiegoś np. interpretera kodu i to też w jakimś sensie jest agentem AI.
Jeżeli on ten kod jest w stanie np. uruchomić i przejść przez jakąś aplikację
interagując z nią, no to właśnie to jest agent AI.
Czyli to jest coś, czemu możemy zadać polecenie, żeby np. weszło na jakąś stronę
z tymczasowymi mailami i wysłało do nas maila.
Tym się różni agent AI od konwersacyjnego, że konwersacyjnemu nie możemy takie opowiedzenie zadać, ponieważ on ma tylko rozmawiać.
A agent może też obsługiwać pewne konkretne środowiska częściowego systemu operacyjnego.
No to dzięki za doprecyzowanie w tym temacie, mamy dwie wiadomości głosowe od Mileny.
Tutaj do Michała wiadomość ogólnie. Nie, to faktura jest okej. Tylko Rafałowi cały czas chodzi o umowę.
Że umowa, no wiadomo jak chce się przyczytać tą umowę, co tam, jak te warunki wyglądają i tak dalej.
Jak się na przykład przedłuża umowę, dostaje się aneks do umowy, czy tam ma się nową umowę,
to ona jest teraz tak skonstruowana właśnie, że jest plik w pliku.
Bo jeżeli chodzi o fakturę, to faktura jest normalnym plikiem PDF i da się w nią wejść,
wszystko normalnie, bez problemu przeczytać.
Tu jest kwestia po prostu z typowym plikiem, w którym jest albo umowa, bądź aneks do tej umowy. Pozdrawiam.
A jeszcze takie małe pytanko do Michała tutaj, bo wspominał Michał tutaj właśnie o tym, że też miał właśnie taką sytuację tutaj jak Rafał,
To znaczy akurat to, co ja zrobiłem, to dotyczyło naszego serwera, który musiałem po prostu w odpowiedni sposób skonfigurować.
A kwestia była taka, że po prostu trzeba było rozwiązać problem adresów IPv6.
Bo okazało się, że z jakiegoś powodu serwer nie nasłuchuje na obu adresach, czyli na adresie IPv4 i adresie IPv6.
Trzeba było najprostszym rozwiązaniem, żeby nie bawić się w jakąś tam dodatkową konfigurację,
po prostu usunąć ten adres IPV6 z adresu, z puli jakby rekordów DNS tej konkretnej domeny.
No i po usunięciu problem się rozwiązał. Wtedy już okazało się, że wszystko działa.
Okej, co do umowy, to dobrze, że to doprecyzowujesz, bo ja już faktycznie nie pamiętam, kiedy ostatnio
Dostałem jakąś tam umowę, a zazwyczaj też, jeżeli chodzi o aneksy, to w Plusie jest tak, przynajmniej ja tak miałem ostatnio, jak podpisywałem, czy jak przedłużałem,
to chyba nawet było w ten sposób, że dostałem SMS-em warunki tego aneksu i wystarczyło potwierdzić, czy je akceptuję, te nowe warunki, czy nie.
I wtedy, kiedy ten SMS został wysłany, albo to był mail, ale też to było wszystko w treści.
Nie pamiętam już teraz czy to był SMS czy mail, ale w każdym razie rozwiązanie tego było bardzo proste.
Ale teraz być może coś tam się zmieniło. Tego, tego nie wiem. I dobrze, że tu doprecyzowaliście te kwestie.
No dobrze, skoro umowy, skoro aneksy, to za te umowy, kiedy się zobowiązujemy z kimś w ramach jakiejś umowy abonamentowej, to trzeba zapłacić jakiś tam abonament, taki czy inny.
No i teraz będzie o płaceniu. Pawle, jakie informacje w tych kwestiach, co masz dla nas w newsach płatniczych?
Tak, powinienem to w sumie chyba nazwać
ambasada cashless w Tyflo Podcast,
bo wszystkie artykuły, które dzisiaj chciałbym przytoczyć
pochodzą z tego jednego portalu.
Pierwsza nowość, która może ucieszyć,
ale w sumie ja osobiście nie sądzę, że to dużą rewolucję zrobi.
Nieoficjalnie się pojawiły doniesienia,
że jeszcze w marcu do Polski wkroczy Tap2Pay.
Tap to pay, czyli usługa Apple, która pozwala nam zrobić z naszego
iPhona terminal płatniczy. I czemu stwierdziłem, że to może nas jakoś
specjalnie, nas jako naszych słuchaczy, uradować? No bo już chyba wam kiedyś
też opowiadałem o tym, że taki iPhone w trybie terminala ma tryb
dostępności i tam chyba stukając odpowiednią ilość razy w ekran można
Można wprowadzać cyfry kodu PIN. Wszystko fajnie, ale dobrze. Poczytam może artykuł, no więc jedziemy.
Z nieoficjalnych informacji Cashless.pl, potwierdzonych jednak w kilku niezależnych źródłach, wynika, że lada moment prawdopodobnie jeszcze w marcu
Apple ogłosi otwarcie polskiego rynku dla usługi Tap2Pay. Umowy w tej sprawie miały już zostać podpisane z kilkoma operatorami
Wynika, że terminale aplikacyjne umożliwiają już przyjmowanie płatności na około 50 tys. urządzeń w Polsce.
Niestety, terminali takich dotąd nie można było oferować w naszym kraju na iPhonach, bo nie pozwalał na to producent.
I to mimo tego, że na kilku sąsiednich rynkach jest to już możliwe, na przykład na ukraińskim, czeskim, austriackim czy rumuńskim.
Za kilka dni ma się to zmienić. Co ciekawe, firmy, które chcą zaoferować swoim firmom terminale aplikacyjne
Na urządzenia z systemem iOS muszą najpierw dobrze policzyć, czy im się to opłaca.
Z informacji Cashless.pl wynika, że Apple narzuca im rygorystyczne warunki współpracy,
w tym warunki finansowe. Wśród nich jest m.in. konieczność wyłożenia nawet kilkuset tysięcy euro
na marketing nowej usługi, przy czym wpływ firm z Polski na treść materiałów marketingowych
finansowanych z tych pieniędzy jest znikomy.
Jak wspomniałem wcześniej, pisze autor,
terminale aplikacyjne cieszą się u nas coraz większą popularnością.
W wielu przypadkach ułatwiają pracę, bo dzięki nim sprzedawca może zacząć
akceptować płatności bezkotówkowe na urządzeniu, które już posiada,
np. smartfon, bez konieczności wyposażania się czy noszenia ze sobą
dodatkowego sprzętu. Mowa np. o kurierach, kosmetyczkach
czy sprzedawcach na targowiskach. Pytanie, jak wielu z takich
…przedsiębiorców korzysta na co dzień z urządzeń Apple i jednocześnie będzie zainteresowany
nim do przyjmowania płatności. A jeśli jesteście zainteresowani tym, czym różnią się
poszczególne terminale aplikacyjne, zapraszam do lektury naszej dwuczęściowej analizy.
No to już są artykuły, które dalej tutaj są polecane.
No ja… w artykule było wymienione, że te apto PI jest dostępne na rynku austriackim.
No, mi jeszcze nikt iPhona nie zaproponował.
Fakt, że ja też często kupuję w takich bardzo ogólnych punktach,
w jakichś supermarketach, czasami rzeczywiście w jakichś restauracjach,
ale najczęściej trafiam jeszcze na takie klasyczne terminale z klawiaturą.
No i obiekty najczęściej takowe mi się trafiały.
Na dotykowy jeszcze nie natrafiłem.
Natomiast, no właśnie, jeżeli nie natrafiłem na dotykowy,
to tym mniejsze jest prawdopodobieństwo, że trafię na iPhona.
No ale opcja jest. Coś może ruszyć. To może być też opcja dla niewidomych przedsiębiorców, no bo iPhone ma jednak dość dużo osób.
Przypuszczam, że interfejs od strony sprzedawcy również jest jakoś tam dostępny, no więc mielibyście pewnie już opcję na jakiś terminal,
gdybyście jakąś tam swoją działalność chcieli poprowadzić. Także zobaczymy jak to wszystko wejdzie, kto to zaoferuje.
Jak to będzie można uruchomić, bo romyślam się, że te opłaty rygorystyczne i te jakieś właśnie rzeczy, które tutaj się pojawiają, dotyczą operatorów terminali, czyli to nie my jako przedsiębiorca musimy płacić takie opłaty.
Kilkaset tysięcy, ktoś kto prowadzi działalność jako fryzjer na przykład, to myślę, że na pewno nie wyłoży.
No nie, to znaczy, no nie, ja myślę, że to tyczy się właśnie firm, które mają pośredniczyć w oferowaniu tego tap-to-pay jakoś tam.
Tak to zinterpretowałem.
Też mi się tak wydaje.
No właśnie. To są te, które mają tu jakieś umowy podpisywać.
Także zobaczymy, jak to wszystko wyjdzie w praniu, no i jeżeli zaczniecie już dostrzegać pierwsze tap-to-pay’e w waszym otoczeniu,
to dawajcie znać, jak Wam się płaciło, czy taka dostępność się Wam podoba.
To nie wszystko, bo jakiś czas temu jakaś tu się pojawiła dyskusja w naszych
Tych co Przeglądach, a to już dość dawno, o kartach lojalnościowych i gdzie te karty
lojalnościowe zbierać.
I niektórzy z Was polecali aplikację StockCard, no to tutaj niestety wiadomość
smutna, bo aplikacja została, o czym ja nie miałem pojęcia, przejęta
przez Klarne i Klarna tą aplikację wycofuje. No więc czytamy co następuje.
Wygląda na to, że jeszcze w tym roku z rynku zniknie aplikacja mobilna Stocard.
Aktualnie trwa migracja danych użytkowników tej apki do aplikacji
szwedzkiego Fintechu Klarna. Z informacji przekazanej przez Biuro Pracowe Spółki
w Polsce wynika, że apka ta już od ubiegłego roku posiada budowaną funkcję
Migracja ma potrwać jeszcze kilka miesięcy.
Przypomnę, że StokCard to popularna swego czasu także w Polsce aplikacja do przechowywania cyfrowych wersji plastikowych kart lojalnościowych.
Start-up na kilku rynkach, na których działał, oferował także usługi płatnicze.
Ostatecznie jednak w 2021 roku został przyjęty przez szwedzkiego patentata usług z zakresu płatności odroczonych.
Podawano wówczas, że Klarna przejęła kontrolę nad stokardem za 113 milionów euro.
Tymczasem Klarna rozwija ofertę dla klientów w Polsce.
Niedawno udostępniła na naszym rynku usługę zwaną cashbackiem,
czyli zwrót części wydatków zrealizowanych za pomocą apki.
Poprawna nazwa do tego rozwiązania to moneyback.
W ubiegłym roku w rozmowie z serwisem cashfreelance.pl szef Klarny na region
Na razie usługa nie trafiła na rynek, ale w niedawnym wywiadzie dla serwisu XYZ.pl zadeklarowano, że stanie się to pod koniec bieżącego roku.
No i to tyle. Także jeżeli używaliście Stockarda, to czeka Was migracja do Klarny. Nie wiem na ile ta Klarna jest dostępna swoją drogą, bo tej aplikacji nie testowałem, nie miałem takiej potrzeby.
No więc tutaj nas czekają takie rewelacje.
No i na sam koniec, a to może nie z Cashlessa,
aczkolwiek Cashless też o tym donosił.
mBank. mBank ma mieć,
znaczy już ma od początku tego tygodnia,
nową stronę internetową.
Chodzi tu nie o stronę bankowości online
czy też logowania, a o stronę informacyjną
mbank.pl, tam gdzie się można wszystkiego
o banku dowiedzieć.
No i co tu mamy?
Od zawsze proponujemy rozwiązania technologiczne, które są proste i intuicyjne.
Idea technologii do usług była też kluczowa podczas projektowania naszej nowej strony www.
Tak, nadszedł czas na kolejne zmiany, a dotyczą one właśnie naszego serwisu informacyjnego.
Strona będzie szybciej się ładować dzięki temu, że jest zbudowana w chmurze.
Uproszczone treści pozwolą Wam łatwiej znaleźć informacje.
Nowa odsłona strony powstała z myślą o urządzeniach mobilnych.
Mobile First by Design.
Zobaczycie ją już 9 marca.
No to zobaczyliśmy.
Co ważne, nie zmienimy wyglądu strony logowania do serwisu bankowości internetowej.
Co miesiąc nasza strona informacyjna notuje średnio 12 milionów odsłon.
To źródło wiedzy na temat banku i oferty produktowej, jak i najnowszych informacji ważnych dla klientów.
Kluczowe jest, aby klienci mogli szybko i bezproblemowo odnaleźć stronę, informacje, na których im zależy.
Wiele wysiłku włożyliśmy w uproszczenie nawigacji i dostosowanie jej do najnowszych trendów UX-owych,
mówi Monika Pablich, wicedyrektor departamentu Omni Channel w mBanku.
W warstwie wizualnej nową stronę zaprojektowaliśmy zgodnie z najnowszymi trendami.
Sposób prezentacji treści, np. dotyczących usług czy produktów bankowych na stronie, jest spójny i przejrzysty.
Co więcej, w zależności od decyzji odbiorcy strona będzie dostępna w trybie jasnym lub ciemnym.
Natomiast dodanie takich funkcji jak przyklejone menu oraz odnośniki do poszczególnych sekcji pozwoli Wam na sprawne poruszanie się po niej.
Dotyczy to zwłaszcza urządzeń mobilnych, prosty język i użyteczność.
Zmieni się nie tylko warstwa wizualna, ale również tekstowa strony.
Opracowaliśmy ją według zasad M-CANON, czyli obowiązującego w banku standardu prostego języka.
Dzięki niemu nawet skomplikowane zagadnienia związane z bankowością są przystępne i zrozumiałe.
Poza intuicyjną budową, przystępnymi treściami o tym, czy strona jest użyteczna, decyduje też tempo jej ładowania.
To powód, dla którego zbudowaliśmy ją w chmurze. W efekcie będzie działała szybciej i będzie mniej narażona
…związane ze zwiększoną ilością logowań oraz awarie, które dopadają czasem tradycyjne strony oparte na naziemnych serwerach.
Nowa wersja naszej strony internetowej polepszy doświadczenia użytkowników.
Dzięki nowoczesnym technologiom i designowi dostosowanemu do technologii mobilnych,
nasi klienci będą mogli korzystać z naszych usług w sposób jeszcze bardziej wygodny i efektywny,
W pracach nad nową stroną internetową MPL zadbaliśmy o to, by była w jak najwyższym stopniu dostosowana do aktualnych wytycznych WCAG 2.2.
Dzięki temu będzie bardziej przyjazna dla osób ze szczególnymi potrzebami.
Strona powstała we współpracy z firmą Univio, która dostarczyła technologia oraz M-Services odpowiedzialne za design.
Współpraca z mBankiem nad nową wersją strony internetowej była dla nas niezwykle inspirującym projektem.
Dzięki zaawansowanym technologiom chmurowym oraz dostosowaniu do standardów dostępności
stworzyliśmy platformę, która spełnia potrzeby współczesnych użytkowników.
Jesteśmy dumni, że mogliśmy wesprzeć mBank w realizacji tak ważnego projektu
łącząc innowacyjność z niezawodnością i skalowalnością.
Zgodnie z opisanymi wyżej założeniami powstała strona główna serwisu oraz podstrony.
Nie zmieniliśmy strony logowania. Bezpieczeństwo przede wszystkim.
Tutaj są wskazówki jak ją rozpoznać. No i to tyle.
No więc wzmianka o WCAG. Zresztą ja podejrzewałem, że oni coś z tym zrobią,
bo ostatnio bardzo inwestują też w dostępność aplikacji mobilnej.
Przynajmniej w liście zmian się to pojawia. Ja nie widzę tych różnic w aplikacji,
Nie wiem w jakich obszarach szukać tych zmian.
Dalej jest ten problem, który był na przykład, że
pola edycji, tam gdzie się wpisuje numer konta,
tytuł przelewu, to nie są standardowe pola edycji,
więc nie można po nich nawigować znak po znaku i poprawiać błędów.
Uważam, że to jest dość duży bug,
z którym coś powinno się dać zrobić.
Natomiast przejrzałem sobie tą stronę
i rzeczywiście wygląda na to,
Ktoś tam o WCAG pomyślał. Są na pewno kotwice, czyli te punkty nawigacyjne.
Na przykład nawigacja, tam gdzieś główny i tak dalej.
Ładnie wszystko popisane. Nagłówki są, chyba nawet na właściwych poziomach.
Są przyciski, które rozwijają tam dodatkowe jakieś linki.
Rzeczywiście się zwijają, rozwijają. Także wygląda na to, że ktoś rzeczywiście pomyślał.
Ale przed absolutnie każdym linkiem, zwłaszcza tych linkach w stopce, w nawigacji i tak dalej,
przejdź do strony z informacjami o tym. Przejdź do strony z informacjami o tamtym.
Przejdź do strony, która coś tam. I naprawdę bardzo uciążliwe są te długie opisy linków.
Ja w ogóle przypuszczam, że one dla osób widzących wyglądają inaczej i ktoś tu nadpisywał
tak zwanym aria-label, czyli no takim atrybutem, którym dodaje się teksty
I zrobił te teksty takie bardzo, bardzo długie.
Do tego stopnia, że no owszem, w zaleceniach WCAG jest, żeby informować o tym,
jak strona nas przenosi na jakąś tam zewnętrzną stronę, czyli jeżeli mamy link
do aplikacji mobilnej, no to warto może powiadomić, że otworzy się tam
zewnętrzna strona, ale dajmy tą informację na koniec, a nie na początku linku.
Przejść do strony zewnętrznej aplikacja w sklepie Play.
Nie bardzo o to chodzi. To jest jedno.
Druga rzecz, która jest dość uciążliwa, to fakt, że tam na stronie jest zrobiony pokaz slajdów,
który pokazuje nam w formie tzw. karuzeli, takie przekręcające się,
cały czas zmieniające się slajdy z jakimiś treściami,
które bank uznał, że warto na użytkowników uwagę na nie zwrócić.
Taką karuzelę da się zrobić w sposób dostępny, jest to trudne.
Mało komu się to udaje za pierwszym razem,
tak z mojego doświadczenia jako testera.
Bo trzeba zadbać o to, żeby dało się ją zapauzować.
To nawet nie chodzi już o osoby tylko niewidome,
ale po prostu o osoby, które mogą bardzo łatwo się rozproszyć
przez to, że cały czas coś tam miga i cały czas coś tam się zmienia
i może je sobie zdezorientować.
Ale powinny też być opisane obrazki, bo to obrazki są.
Owszem, są bardzo rozbudowane opisy alternatywne obrazków,
Tylko po co ktoś na tą karuzelę założył Arialive,
przez co co parę sekund jest nam odczytywany ten nowy slajd, który się pojawia.
Więc jeżeli wejdziemy teraz na mbank.pl, to co parę sekund słyszymy tam 4 minuty,
no bo to w tej karuzeli konkretnej są jakieś artykuły,
które oni by chcieli, żebyśmy przeczytali,
łącznie z tym takim prognozowanym czasem, ile nam zajmie ich przeczytanie.
No i czyta nam w kółko 4 minuty, daj się zaprosić do czegoś tam, 3 minuty,
A może chciałbyś się dowiedzieć o czymś tam?
I to się tam powtarza, i tak w kółko, i tak w kółko, przez cały czas jak jesteśmy na tej stronie.
Także no jest to dość uciążliwe. Tu by się przydał dodatek Access Hammer,
który wyłącza te wszystkie rejony Arial Live.
No i w tym momencie mamy spokój i możemy po prostu po tej stronie chodzić.
Ale w takich przypadkach to aż się nasuwa takie skojarzenie i taka myśl,
że jakby twórca tej strony nie wiedział o dostępności, to by się nie zainteresował
Arią i nie zaczął mieszać.
Tak, bo pierwszą zasadą Arii jest w ogóle nie używaj Arii.
Dokładnie, dokładnie.
W sensie, co oznacza, że Aria jest do konkretnych celów, ale naprawdę trzeba jej
potrzebować i wiedzieć, co się robi. Głównie to powstało do różnego rodzaju
bardzo skomplikowanych aplikacji webowych. No, Google Docsy wykorzystują to bardzo
Ale niekoniecznie zwykła strona, do niektórych rzeczy może okej, w porządku, w pojedynczych przypadkach, ale nie w taki sposób.
I naprawdę trzeba uważać, co się robi. Ja jestem też ciekaw, czy ta strona była jakkolwiek audytowana przez kogoś albo konsultowana z grupą docelową,
bo ja przynajmniej się nie dogrzebałem, teraz tu z Michałem mieliśmy dyskusję poza anteną, czy nawet w świetle ustawy o dostępności
M-Bank ma obowiązek posiadania deklaracji dostępności.
Mi się wydawało, że tak. Ty, Michale, masz odmienne zdanie.
Wiesz co, ja nie mam nawet zdania.
Wydawało mi się, że na pewno gdyby był instytucją publiczną,
to te deklaracje musiałby mieć.
Ale jak jest w przypadku instytucji prywatnych na ten moment,
nawet i w przypadku instytucji bankowych,
ciężko mi stwierdzić.
Okej, no…
Żaden z nas nie jest prawnikiem, więc nie możemy dawać takich wiążących odpowiedzi.
Natomiast byłoby to fajne, chociażby, żeby udokumentować fakt, że…
Na pewno by nie zaszkodziło.
Tak, tak.
Że coś było zrobione.
Jestem tu w stu procentach za.
Fajnie, że to WCAG jest wymienione w komunikacie prasowym, czyli widać, że było to brane pod uwagę.
No, natomiast jak widać, przydałoby się trochę więcej konsultacji.
No i to chyba wszystko z mojej strony, jeśli chodzi o ten kącik.
Okej, to my odbieramy telefon od słuchacza. Kogo witamy po drugiej stronie?
Szanowni, witam serdecznie. Bartek po tej stronie się kłania.
Cześć Bartek.
Dzisiaj tym razem przez FaceTime, nie przez Whatsappa, bo próbowałem się do Was dobić, ale mnie zdejmowało.
Ja przepraszam Pawle, że do Ciebie znowu uderzę o ten temat, co w zeszłym tygodniu,
że będę go jeszcze wałkował w tej audycji, ale chodzi konkretnie właśnie o ten TCA Media Downloader, bo udało mi się go pobrać.
Wszystko ładnie, pięknie, na wszelki wypadek go wypakowałem, bo tutaj nawet mi komunikat wyskoczył o tym, że ten…
No, jak ten antywirus ma?
Defender?
O, dziękuję Michale. Właśnie wypadło mi z głowy, że Defender blokuje.
No dobra, wypakowałem. Udało się uruchomić.
Wiadomo, skopiowany adres URL tego pliku, który chciałbym pobrać.
Format wybrany.
I kliknąłem w pierwszy przycisk, który znalazł się pod tabulatorem.
On też jakoś na D, tylko wiadomo, że to było po hiszpańsku.
I powiedz mi, Pawle, czy ty testowałeś, jak w ogóle NVDA powinien się zachować
po kliknięciu tego przycisku, czy jakiś pasek postępu tam się…
tak jak w przypadku Ponteza powinien pojawić, czy…
Przede wszystkim ja ci polecam przełączyć sobie język.
Kurczę, to jest wada tych programów, tego konkretnego twórcy,
…że one nie respektują języka systemu.
Przełącz sobie na język polski, bo on jest.
Powiedz mi tylko, przypomnij mi, jak możesz.
Już, już. Ja już patrzę, gdzie to mogłoby być, bo nie chcecie okłamać.
Bo tam mamy jeszcze…
Czyli tak, otwieram TCA Media Downloader.
Robię shift-tab.
Sekundeczkę.
Dialog z zakładkami.
Drugi raz shift-tab jest menu, przycisk. Naciskam enter.
Sekundkę…
Tutaj Michale, pewnie będziemy Cię też słyszeć, jeżeli pozwolisz oczywiście.
Słyszę się, tak, słyszę się.
Mam nadzieję, że to nie przeszkadza tutaj, że żadnych zaiksów tutaj ode mnie nie zwołasz.
Okej, więc odpalam TC…
O, jest. EGZE.
Dobrze, Paweł, on mi się uruchomił. I teraz, żeby przejść na tą zakładkę, co?
Shift-tab dwa razy. Powinno być menu.
Nie, jest jak raz u mnie, jak nacisnę Shift-tabulator, jest przycisk menu.
Dobrze, naciśniesz Enter i tam masz pewnie opcję albo jakieś opcjones.
Czy jakieś opcjones, coś takiego.
To wejdź tutaj.
Tak, już jestem.
Tabulatorem rozumiem, tak?
Tak, naciśnij tab.
Tak, to, to, to, to.
Tak, tak, tak i strzałką w dół rozumiem.
To jest H przycisk, więc musisz go nacisnąć.
A jak teraz strzałkami się poruszam, to rzeczywiście czytam.
Bo jest espanol, francuski, mówiąc już po polsku, anglijski, ale polskiego nie widzę.
Okej. Chyba masz starszą wersję. Ty masz jakąś wersję dwa, coś tam, coś tam?
No możliwe. Ja pobrałem pierwszy wynik, który, że tak powiem, mi się wyświetlił tu przed sekundarkę.
Powiem Ci tak, jest wersja 3, to poszukaj sobie tecea.media.downloader.3
Okej, dobrze.
I wtedy powinno Ci to zadziałać.
On już wtedy inaczej wygląda i on, jak wpijesz mu ten link i naciśniesz pobierz,
on ma zakładki, on ma w ogóle interfejs zakładkowy.
Jedna zakładka to jest tam, gdzie się podaje link,
druga to jest wyszukiwarka, gdzie możesz sobie wyszukiwać na YouTubie w ogóle
utwory, playlisty twórców itd., kanały.
A trzecia zakładka to jest historia, czy tam pobrane pliki.
I tam masz w ogóle cały progres, co się wszystko pobiera.
Okej, a Pawle, bo a propos jeszcze tej wersji, którą tutaj posiadam,
to jest dwa ileś bodajże, to właśnie po naciśnięciu tego przycisku
wyświetlił mi się jakiś komunikat de facto, no niestety,
ze względu na to, że to było po hiszpańsku, nie mogłem go zrozumieć,
ale był przycisk tak i nie. I jak wcisnąłem przycisk tak,
Tak, to on odezwał mi się głosem ludzkim w języku hiszpańskim,
ale po chwili wyświetlił mi się jakiś error.
I tam chyba było, no, tłumacząc na polski,
zakończ albo zamknij.
Pewnie masz starego YouTube DL-a i pewnie gdybyś tam,
już teraz nie wiem, czy ta stara wersja też to miała,
tam była chyba opcja, żeby pobrać aktualizację.
I on sobie sam dociągał najnowszą bibliotekę
i to potem działało.
Bo rozumiem, że zaktualizować tej wersji nie można właśnie przez opcję, czy właśnie gdzieś z tym przyciskiem na niej.
Z dwa notki chyba nie.
Już zaraz Ci sprawdzę, gdzie jest trójka.
Nie, to akurat chyba nie będzie problem. Po prostu jeszcze raz zeszukiwarkę wpiszę, tylko dodam kwestię 3 i zobaczymy, jak wynik mnie po prostu wynajdzie.
Czyli będzie trzeba po prostu zaktualizować sobie wersję w sposób manualny, jakby to można powiedzieć.
No dobrze, bo tutaj właśnie się zastanawiałem, gdzie leży ten problem, bo i próbowałem i na Wi-Fi, i po kablu, ale z tym moim komputerem to niestety bywa różnie.
No ja wpisałem teraz w Google TCA Media Downloader 3 i czwarty wynik z góry w Google to jest to, co Ci potrzeba.
Ale jak wejdę chyba w ten link i przejdę na początek strony i później po nagłówku, no to chyba tam będzie nagłówek z nazwą i bynajmniej w tamtym przypadku jak pobierałem tą wersję 2 coś to było, że Download TCA Media Downloader i była wersja podana.
Bo oni to robią w formie takich postów na blogach, gdzie jeszcze trochę opisują ten program i coś tam, i coś tam, więc tam tych downloadów jest więcej, bo tam jeszcze jest chyba taki mini podcast, gdzie oni trochę opisują, jak to się obsługuje, więc to też możesz pobrać.
No nie jest to zbyt intuicyjne.
No to najbliższy tydzień będzie po prostu do następnego tytułu przeglądu, ewentualnie to będą takie formy testów, wiadomo.
Okej, powodzenia.
W porządku, dziękuję. Michale, do Ciebie też takie małe pytanko mam. A propos ICO, czy zauważyłeś ostatnio, bynajmniej w kwestii, jeżeli dokonujesz płatności kartą, że albo Ci nie przychodzą, albo powiadomienia przychodzą z opóźnieniem?
Tak, zauważyłem to od kilku dni. Rzeczywiście takie coś ma miejsce. No prawdopodobnie jakieś przeciążenie serwerów albo coś robią.
Miałem taki dziwny przypadek, że powiadomienie było w aplikacji, a dźwięk pojawił się kilka godzin później.
Zgadza się, zgadza się. Tego typu rzeczy się dzieją. No coś tam, coś tam widocznie działają.
Okej, to jeszcze taki mały pakiecik pytań de facto już nie tyczących się bezpośrednio mnie, tylko tutaj od innych tutaj moich znajomych.
Pierwsze pytanie, czy w iPhonie jest możliwość przeedytowania,
bynajmniej możliwości udostępniania kontaktów.
Chodzi mi tutaj o aplikacje, za pomocą których możemy kontakty udostępniać.
A konkretnie tutaj chodzi o to, czy możemy też przez Messengera
kontakty udostępniać. Tutaj takie pytanie oddostałem.
Przez Messengera, o ile wiem, nie ma możliwości udostępniania kontaktów.
No właśnie, tutaj też próbowałem poszukać w samych ustawieniach kontaktów.
Jest opcja edycji tego tak zwanego arkusza udostępniania, ale przy okazji udostępniania kontaktu nigdy tam nie widziałem Messengera.
Bo tam się nie wszystkie aplikacje zawsze pojawiają w każdym przypadku, kiedy byśmy sobie tego życzyli.
To się czasem lubi zmieniać, ale nigdy w tym przypadku messengera nie było.
No bo z drugiej strony…
Chodziło Gmaila mi po kawę chociażby.
Tak, bo możesz wysłać jako załącznik, jako wizytówkę.
A na Whatsappie to jak najbardziej kontakty da się udostępniać.
Whatsapp zresztą sam z siebie ma ten przycisk do udostępniania.
Tam udostępni multimedia i tam możesz wybrać kontakt.
Ja Michale tutaj mówię o tej formie, jak się wchodzi w kontenier. Ogólne kontakty.
Ale to też może być dlatego, że po prostu ta osoba też nie korzysta z mód zapadki.
No właśnie, bo to narzędzie, Bartku, bo ten arkusz udostępniania działa tak, że on analizuje Twoje zachowanie
i analizuje jak Ty korzystasz z telefonu, z czego, z jakich aplikacji najczęściej i stara się być Tobie pomocny.
A zastanawiające chociażby właśnie w tym przypadku jest to, że jak mam do poczty, do e-maila mówiąc pospolicie, domyślną aplikację ustawioną jako poczta, to tej aplikacji mi nie wyświetliła, a wyświetliła mi gmaila. To jest dziwne.
To ciekawe. Ale pewnie jakbyś gdzieś tam pogrzebał w edycji, to dałoby się tego maila wywołać.
Tak, to tylko tak na marginesie zastąpiałem.
Tutaj właśnie jedyną opcją, która mi przyszła do głowy, zresztą którą tutaj zaleciłem
mojemu znajomemu, to jest po prostu użycie metody kopiowania voiceover.
Po prostu jeżeli chcemy jakiś kontakt udostępnić, to po prostu kopiujemy go w sposób
4 razy 3 palce i wklejamy do wiadomości do Messengera.
Na Messengera? No można w ten sposób, tak.
To jest tylko jedyna droga, bynajmniej w tej kwestii.
Z takich króciutkich informacji, nie wiem czy wiecie, ale pojawiła się aktualizacja iOS-a 18.3.2,
która niby poprawia odtwarzanie strumienia, nie było dokładnie napisane w wideo, ale…
Jakoś powiem tak, że na WP Pilocie chyba to się tak dokładnie nie sprawdza.
Pytanie, co tak naprawdę mieli na myśli tutaj autorzy z Apple’a.
Bynajmniej, nie wiem, czy chociażby Polsat, BoxGo czy Player chociażby w to by się zaliczyło.
A propos tak na marginesie, jeżeli mam włączoną audiodyskrypcję w dostępności,
A zauważywszy, że większość seriali chociażby na Polsat BoxGo taką audiodeskrypcję posiada, to zastanawiam się, dlaczego ona mi się automatycznie akurat nie chce włączyć.
No właśnie zabiłeś mnie tu, Michał, w tej chwili.
z audiodeskrypcją z takich popularnych aplikacji.
No to jest Kanal Plus i to jest Netflix.
I tam rzeczywiście, jeżeli masz to włączone,
to istotnie automatycznie wybrana zostanie ścieżka z audiodeskrypcją.
Okej. I wydaje mi się, że na tą chwilę będzie ostatnie pytanie.
Tutaj też chciałbym jednej koleżance pomóc.
Czy doradzilibyście jakąś ścieżkę załatwienia zajęć z orientacji przestrzennej,
ale na terenie własnego miejsca zamieszkania?
Która fundacja, że tak powiem, ewentualnie takie coś próbuje zorganizować?
To jest strasznie regionalne i to naprawdę trzeba pytać…
No PZN warto zacząć i wiedzieć też, kto działa bardzo lokalnie, tam gdzie jest potrzeba.
Bo jeżeli chodzi o PZN, Pawle, to bynajmniej tutaj u mnie w Bydgoskim Homerze są organizowane te dwutygodniowe szkolenia, prawda?
To wiem, tak, bo też w takim uczestniczyłem.
To szkolenie tak naprawdę ja sam brałem w tym udział, chociaż nie dla siebie powiedzmy, tylko też dla tutaj innej osoby.
Co polega na tym, że po prostu uczą Cię technik i chodzisz do tego ośrodka, więc to jest tak naprawdę dla takich, którzy zaczynają dopiero.
Dlaczego o tym mówię Bartku? Bo kiedyś szukałem dla osoby trzeciej właśnie kursu orientacji u nas na Śląsku.
I nie wiedziałem, że to jest aż takie trudne. Problem polega na tym, wiesz o czym polega problem?
Że o ile ja się orientuję, w Polsce nie działa to tak, że ty potrzebujesz kursu, ty się meldujesz
I tam, nie wiem, jakieś dofinansowanie ewentualnie dostajesz z PFRON-u, czy z innego miejsca na orientację i jest to opłacane.
Tu musi być to wszystko projektem. I problem polega na tym, i to już słyszałem od większej ilości osób, albo osób, które na przykład przyjechały,
miałem sytuację, pani z Ukrainy, albo ktoś, kto jest nowo ociemniały i rzeczywiście potrzebuje takiego kursu w dużym wymiarze godzin.
Naprawdę jest problem, bo wszystko się rozbija o projekty.
Albo zapiszesz się do projektu, bo wiesz o tym, że jest,
więc najpierw musisz wiedzieć, że projekty akurat na terenie twojego miasta
czy tam w twoim rejonie są. Po drugie, niektóre z tych projektów
mają jakieś wymogi i są w ogóle listy, gdzie ty możesz się dostać,
a możesz się nie dostać.
Czyli tak naprawdę ewentualnie pozostaje tylko kontaktować się
z PFRON-em bądź PCPR-em na terenie województwa.
Z kim możesz, tak naprawdę.
Jeżeli chodzi o PFRON, to na pewno warto przejrzeć sobie w ogóle listę projektów, która otrzymała finansowanie w konkursach tych tak zwanych na zadania zlecone.
Bo tam można różnego rodzaju rzeczy znaleźć i być może właśnie z Twojej okolicy będzie coś, co się kwalifikuje, bo te projekty też działają bardzo różnie.
Na przykład niektóre są w różnych województwach, więc to tak jak Paweł mówi, to jest bardzo, bardzo zróżnicowane.
Fakt faktem, od kwietnia zaczyna się ten nowy rok projektowy, więc jest szansa, że jeżeli coś u Ciebie działa
i coś będzie właśnie ze środków PFRON-u dofinansowywane, to że takie godziny się pojawią od kwietnia.
Ale i tak pierwsze kroki de facto kierować do PFROM-u, albo do PCPR-u, na terenie województwa…
Na pewno nie zawadzi zapytać, tak.
No bo to tak naprawdę można powiedzieć pierwsze kroki.
Jeszcze takie szybkie pytanie. Przepraszam, nie chcę poruszać waszej prywatności, ale czy rozliczaliście się już może z PIT-u?
Za pomocą chociażby aplikacji Urząd Skarbowy, bo się zastanawiam czy w ten sposób się rozliczyć i czy w ogóle pobrać sobie tą aplikację, bo chodzi kwestia oczywiście dostępności.
Z tego co wiem to działa to bardzo fajnie. Ja akurat nie mogłem się rozliczyć z poziomu tej aplikacji w ten taki prosty sposób.
Natomiast rzeczywiście to działa.
I działa to w bardzo prosty sposób.
Tu już dostałem ileś takich pozytywnych sygnałów.
Czyli jeżeli chodzi o voice-over, to jak najbardziej jest dostępne?
Okej. I tutaj na sam koniec taki mały komunikat do Ciebie, Sylwestrze.
Jeżeli chodzi o ten, można nazwać to problem z wczorajszym brakiem tyczo-przeglądu.
No to zalecam, ja sam zresztą tak zrobiłem, bo sam się ustawiłem o godzinie 20.00 na Tyflo Radiu.
Słyszę, że tak powiem, jest inna audycja, godzina 20.20, jeszcze niczego nie ma.
No to najlepiej zajrzeć na kontakt.tyflopodcast.net i tam jest wyświetle ramówkę.
Zresztą ja dodam, żeby publikujemy tę ramówkę w wielu miejscach.
Tak, na Facebooku, na Telegramie, mailowo wysyłamy tę ramówkę też, chociażby na Tyflosa, na Eltenie, no w iluś, w iluś…
Na Whatsappie jest kanał.
Tak, tak. Chociaż akurat na Whatsappie to… na przykład teraz zapomniałem opublikować, ale to dlatego, że ja nie mam prostego dostępu do Whatsappa, żeby wrzucić właśnie z poziomu kanału,
bo nie mogę tego zrobić z komputera, muszę to robić z telefonu, bo tylko tam jestem w stanie opublikować. Ale to rzeczywiście…
A jeżeli to właśnie tak podpytać mogę, a propos tej ramówki, to jak już bym zajrzał w poniedziałek powiedzmy o godzinie 18 to ona już będzie wtedy dostępna?
Często jest.
Okej, no bo no właśnie tutaj Sylwes, szczególnie do ciebie to był ten komunikat, no ja akurat się przestawiałem, bo nie powinien się zdziwiać, ale wiadomo, wypadki losowe się zdarzają, zresztą widzimy w jakim składzie dzisiaj jesteśmy.
Nie ma Tomka, nie ma Piotra.
Ale skład dotrwał i słuchajcie, prawie już… nawet nie prawie, mamy już czwartek.
No to tym bardziej czas spać i do zobaczenia, do usłyszenia.
Mam nadzieję, że już we wtorek normalnie, w przyszłym tygodniu.
Pawle dziękuję jeszcze raz serdecznie za wskazówki i w przyszłym tygodniu
Odezwy się po prostu, czy operacja się powiodła.
Dzięki Bartku za telefon.
Dzięki za telefon.
Pozdrawiamy i do usłyszenia. Trzymaj się.
Zaglądamy teraz jeszcze do waszych wypowiedzi.
Tutaj trochę tych wypowiedzi jest, więc posłuchajmy na przykład wypowiedzi Marcela.
No to ja się jeszcze odniosę do remote’a, bo jak tak słyszę, to zacząłem się zastanawiać,
czy skoro to zostanie wszystko ładnie zaimplementowane,
to czy dotychczasowe serwery, te które są właśnie na GitHub’ie,
Czyli ten od JM Dave’a, czy ten oficjalny, bo jakiś oficjalny relay też powstał,
będą dalej wspierane i będzie można sobie postawić serwer tak jak to było do tej pory.
No bo jednak, jeżeli można wybrać własną infrastrukturę, to ja osobiście za tym jestem,
czuję się bezpieczniej, kiedy jestem na własnym serwerze, a nie jakimś tam publicznym.
Wiadomo, im więcej osób na jednym serwerze, tym większe prawdopodobieństwo powtórzenia klucza,
Nie wiem, czy to jest słowne, chociaż ja słownych kluczy raczej nie używam, takich zwykłych, natomiast mimo wszystko dobrze by było, gdyby to zostało.
I co do bezpieczeństwa, to też jest bardzo dobra informacja, bo co różna w przestrzeni nad słyszy się głosy, że gdzieś tam NVIDIA Remote ma problemy z bezpieczeństwem, że tam się różne niefajne rzeczy mogą zadziać.
Osobiście się z tym nie spotkałem, mi się nic złego nie przytrafiło, ale gdzieś tam różne głosy słyszałem.
To znaczy, na pewno, jeżeli chodzi o protokół, to Pawle potwierdź lub zaprzecz, ale ja też nigdzie nie słyszałem, żeby on się miał zmienić.
Więc ten moduł NVDA Remote, który będzie w NVDA zaimplementowany, no to będzie kompatybilny z tymi serwerami, bo tam serwery no działają w oparciu o jakiś konkretny protokół,
który po prostu został opracowany przez twórców dodatku
i to nie będzie zmienione.
Zasadniczo nie. Tam jakieś wewnętrzne zmiany nastąpiły
i nie wiem czy coś z tego nie będzie wyprowadzało
tego z kompatybilności. No najprościej to pewnie sprawdzić
ściągając tą alfę.
W komentarzu będzie link, ale jak wpiszecie sobie
nvaccess in process march
to Wam wyskoczy z 8 marca in process
…i tam jest link do alfy. I z tej alfy spróbować zestawić połączenie z tej wbudowanej funkcji z klasycznym remotem na starej NVDA i zobaczyć czy to zadziała.
No jeżeli zadziała, no to zadziała. Zresztą możecie przetestować na serwerach, które macie gdzieś pohostowane i zobaczyć jak to się tam trzyma.
Okej, ja widzę, że jeszcze ktoś do nas dzwoni, więc na koniec naszej dzisiejszej audycji odbieramy połączenie.
A kogo witamy po drugiej stronie?
Rafał, to ja.
Cześć Rafale, słuchamy.
Jeszcze tylko na chwilę w rodzinocie tych umów.
Jeszcze tylko tak chciałem dodać, że jeśli chodzi o akceptację umowy,
żeby zaakceptować umowę, czy tam podpisać i tak dalej,
no to tak, to się robi, tam potwierdza SMS-em, tak, tak, tak.
Tylko w SMS-ie tylko jest podana informacja, co za ta umowa,
Czyli numer umowy, na jakie maile wysłane ta umowa, itd., itd.
Ale żeby zapoznać się jakby z tą treścią tej umowy,
czy tam eneksem, czy tam w ogóle propozycją,
no to niestety, no to wtedy jest właśnie wysłane do załącznika,
który się znajduje na mailu, tak?
Okej, ja widzę, ja pamiętam, że kiedyś był podawany taki skrót,
to znaczy, no wiadomo, to nie były wszystkie te informacje,
ale te najważniejsze informacje dotyczące umowy,
Tak.
Tak, no to do tej pory tak jest.
Tak, to do tej pory tak jest właśnie z najnowszej informacji.
To tak do tej pory jest.
Tak, no ale jakby się chciał przeczytać całe to…
No tak, no to oczywiście, ja się w pełni zgadzam z tobą absolutnie w tym, że to powinno być dostępne, no bo trzeba mieć możliwość zweryfikowania tego, z czym my się zapoznajemy i co potwierdzamy de facto.
Tak, no i o to tutaj chodzi, no bo wcześniej właśnie normalny był PDF i normalnie się pisało tylko się hasło i się otworzyło i te dokumenty już miało, tak?
A teraz właśnie kombinują. I to niestety weszło niedawno właśnie, chyba od tego roku właśnie wprowadzili ten nowy system.
Proszę bardzo i życzę przy okazji dobrej nocy.
Ostatnia informacja z tego, co widzę w naszych notatkach, to jest informacja ode mnie.
Dziś już tu poruszaliśmy tematykę związaną z różnego rodzaju oszustwami.
No to jeszcze do tego wrócimy. Wrócimy mianowicie do kwestii skamów różnego rodzaju.
Czyli, no właśnie, dostajemy na maila jakąś tam wiadomość, która ma nas skłonić do pewnych zachowań.
które najprawdopodobniej uszczuplą nasz portfel. I co my możemy zrobić?
No oczywiście wiadomo, że w żaden sposób nie reagować, nie wchodzić w interakcje z takim oszustem,
nie wykonywać jakichś jego poleceń, jego próśb, bo niczego dobrego, nic dobrego nas nie czeka w związku z tym.
Natomiast, jeżeli chcemy temu oszustowi trochę napsuć krwi,
jeżeli chcemy utrudnić jego działanie, to możemy skorzystać z takiej strony,
która nazywa się rescam.org.
To jest strona stworzona przez instytucje z Nowej Zelandii.
Oni już mieli kilka lat temu podejście do tego projektu
I uruchomili jakieś narzędzie, które było właśnie takim botem odpowiadającym na maila tych oszustów, wciągających, wciągające ich w konwersacje po to, żeby rozmawiali sobie z automatem, a nie żeby rozmawiali z ludźmi i ich oszukiwali.
Natomiast w dobie czata GPT i sztucznej inteligencji to zostało to rozbudowane.
I jakiś czas temu strona rescam.org wróciła.
I jak to działa?
Otóż dostajemy jakiegoś maila od takiego oszusta.
Na przykład dostajemy informację, że no jakiś biedny człowiek wygrał mnóstwo pieniędzy,
ale umiera, jest bardzo chory, no i chce tymi pieniędzmi tam w milionach euro liczonych
podzielić się z, no z kimś.
I tak się zupełnie przypadkowo złożyło,
że wybrał sobie nas.
No i on do nas pisze i tam, wiadomo, to jest cała historia,
będzie nas prosił o różne rzeczy, które tak naprawdę w konsekwencji mają
spowodować to, że my będziemy mu płacić, wysyłać pieniądze,
jakieś tam podatki niby to opłacać, a tak naprawdę to jest jedno wielkie oszustwo.
No to mamy takiego maila, no to co z nim robimy?
A no wysyłamy go na adres, najlepiej po prostu zrobić prześlij dalej
i wysłać go na adres me, m e, małpa, rescam.org.
I co się w tym momencie stanie?
Przede wszystkim dostaniemy potwierdzenie, że taki mail trafił na serwer tej usługi rescam.org.
I oprócz tego otrzymamy link, który pozwoli nam na śledzenie tego, co się z tym naszym mailem dalej dzieje.
A co się stanie? Taki użytkownik, oszust, otrzyma odpowiedź. Tylko już nie od nas.
Otrzyma odpowiedź od Bota, który będzie reagował w jakiś konkretny sposób.
Tam zostało zdefiniowanych ileś różnych charakterów, ileś różnych osób.
Do każdej z tych osób jest ponoć przypisana jakaś historia.
Najciekawszy jest jakiś człowiek, który odpisuje z dość dużym opóźnieniem
…ale on był na rybach i nie ma czasu za bardzo pisać jakichś dłuższych maili, tylko wszystko pisze bardzo lakonicznie i ubarwia te maile emotkami różnego rodzaju.
Na przykład coś takiego dziś widziałem jako jeden z tych przykładów.
No i zadaniem takiego bota jest wciągnięcie tego z kamera w jak najdłuższą konwersację.
Żeby on pisał z tym botem, pisał i pisał i pisał, a nie miał czasu na to, żeby pisać z żywymi ludźmi i żeby tych ludzi nabierać i oszukiwać i wyłudzać od nich pieniądze.
Więc jeżeli dostaniecie takiego maila, jakiegoś, który no widzicie, czujecie, że jest próbą oszustwa,
nawet jeżeli będzie po polsku, to myślę, że nic nie stoi na przeszkodzie, żeby go wysłać dalej na memauparescam.org.
No i niech tam się dzieje, możecie sobie kliknąć. Ja wysłałem dziś takie cztery maile i no na razie nie widzę,
…żeby jakiś skamer odpisał na te wiadomości, no ale być może za jakiś czas warto będzie to na pewno śledzić i sprawdzać, czy jakoś ta historia z którymś z tych adresatów będzie miała ciąg dalszy.
I to jest ostatnia informacja.
Ale czy ja bym się mogła dopytać?
A, pytaj.
Czy ty patrzyłeś na to, jak te modele odpowiadały i jak, czy ty już znasz te wszystkie osoby?
Czy da się jakąś wybrać, która osoba ma…
Nie, to jest z tego, co wiem, generowane losowo. To jest losowo, to jest losowo przypisywane.
Więc tutaj po prostu, no pewnie mamy ilość tych modeli, a tego rybaka to widziałem dwa razy.
Widziałem właśnie w jednym wpisie, który mnie gdzieś tam zainteresował tą stroną.
Bo ktoś udostępnił po prostu taki link do korespondencji tego bota ze skamerem,
a też widziałem, że właśnie na jednego z czterech maili ten rybak odpisał także,
który ja wysłałem.
I temu komuś skamer odpisał czy nie?
Tak, widziałem, że odpisał, że tej osobie odpisał.
I tam była jakaś taka nawet korespondencja na kilka maili.
I co tam było?
Złapałem jakąś większą rybę i gdzieś tam musiałem się z nią udać i wyślę we wtorek.
Więc to jest po prostu ewidentnie tworzone z myślą o tym, żeby tego z kamerą jak najdłużej przytrzymać.
Żeby on żył w przekonaniu, że Ty jednak mu coś wyślesz, żeby podtrzymywać z nim konwersację i żeby po prostu zajmować mu czas.
Także słuchajcie, jak coś wam do spamów leci albo dostaniecie jakieś takie maile, to myślę, że warto, że to zdecydowanie warto wysyłać i niech to, niech po prostu tym ludziom się trochę jednak życie utrudni.
No i tyle. Pytanie, czy jeszcze ktoś coś? Ale chyba, chyba nie.
Może niech taką motywacją będzie, że jak ktoś wam odpisze z tych kamerów, to dzwońcie, mówcie, opowiadajcie.
To dajcie znać, tak, to dajcie znać, czy wam się coś tam udało z tym zrobić i no i uważajcie na siebie, bo maili, czy telefonów, czy różnego rodzaju prób kontaktu jest naprawdę coraz więcej i one są coraz lepiej podrabiane, to tak jak Wojtek mówił i ja się z tym zgadzam, jest naprawdę coraz ciężej odróżnić jedno od drugiego, jeżeli macie jakieś podejrzenia,
Jeżeli coś was niepokoi, to też pamiętajcie, żeby się podzielić taką informacją z kimś bliskim, przeanalizować to wspólnie, nie wykonywać żadnych pochopnych działań, bo licho nie śpi.
No i cóż, to tyle w dzisiejszym Tyflo Przeglądzie numer 273.
Paulina Gajoch, Paweł Masarczyk i mówiący te słowa Michał Dziwisz.
Dziękujemy za uwagę, słyszymy się za tydzień, no już myślę, że planowo we wtorek, po godzinie 20.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych