TyfloPrzegląd Odcinek nr 206 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Na zegarze mamy godzinę dwudziestą i to nawet sześć w kalendarzu.
Środa, dwudziesty piąty dzień października dwa tysiące dwudziestego trzeciego roku.
A zatem rozpoczynamy kolejne spotkanie z Tyflo Przeglądem.
Ostatnie w tym miesiącu na to by wyglądało.
Natomiast oczywiście nie ostatnie wogóle.
Mam nadzieję, że jeszcze tych Tyflo Przeglądów będzie sporo.
A wszystko na to wskazuje, bo dziś rozpoczynamy audycję numer dwieście sześć.
Także sami przyznacie trochę już tych audycji za nami.
No nie wiem jak tam uczniowie innych ośrodków, bo ja to jestem po krakowskim
i ja mam flashbacki, bo to już zaczynają się numery pokojów.
Na nowym internacie.
Ale na 100 też były pokoje.
Może dlatego, że ja w 109 mieszkałem przez pięć lat.
Potem w szóstej klasie była przeprowadzka właśnie do 203.
I potem to już na tym starym internacie się trochę trzymało.
Było 203, 207, 202.
No i dopiero pod koniec gdzieś tam w czwórce wylądowałem na nowym internacie.
Ale te pokoje 200 na nowym to były właśnie te takie wyżej,
to tam też mieszkały osoby różne.
Nie wiem, czy to były pokoje dziewczęce, te dwusetki na nowym?
Dobrze pamiętam? Nie, ma nie tylko.
To te 400, coś tam na samej górze.
Ja już szczerze mówiąc nie pamiętam tych podziałów.
Jak to się wszystko z różnymi rzeczami może kojarzyć.
No to kolejny odcinek będzie z twoim pokojem.
Nawet 206 audycja Tyflo Przeglądu.
Głosy już podejrzewam, że doskonale znacie,
ale gdybyście nie wiedzieli, kto do was mówi,
Paweł Masarczyk, Paulina Gajoch, Michał Dziwisz.
Witam się po długiej nieobecności.
Tak, witamy cię Paulino, witamy.
Publicznie powiem, że ostatnio obiecywałaś, że będziesz się częściej pojawiać.
Obiecywałam i planuję tej obietnicy dotrzymać,
ale studianie zawsze są łaskawe.
Coś o tym wie, bo jeszcze…
Co ty chcesz, my tu pracę mamy.
Ale praca jest od godziny do godziny,
a studia no to jak ci wykładowca wymyśli,
no to wymyśl.
W każdym razie słuchajcie, mamy dla was dziś troszkę informacji.
Na dobry początek skrót, w którym to skróci już od razu powiem,
że zdecydowanie nie ma ich wszystkich,
ale posłuchajcie przynajmniej mniej więcej o czym będziemy dziś mówić.
W tym tygodniu w Tyflo Przeglądzie.
Obszary w mózgach niewidomych służące do przetwarzania informacji wizualnych
wcale się nie marnują.
To właśnie dzięki nim szybka synteza mowy nie jest nam straszna.
Potrzebujesz dostępnego klienta SSH na iOS?
Użyj ISH.
Niedługo na poręczach niemieckich dworców
może pojawić się więcej braillowskich napisów.
Prezentacja udźwiękowionych systemów rozrywki
w liniach lotniczych United Airlines.
Francuski Związek Niewidomych
założył Obserwatorium Stanu Dostępności Usług.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Na pewno, na pewno będzie znacznie więcej tematów,
chociaż dziś raczej Tyflo Przegląd będzie krótszy niż dłuższy,
ale możecie oczywiście również podrzucać swoje informacje.
Jeżeli tylko macie na to ochotę,
jeżeli chcielibyście się z nami czymś podzielić,
to jesteśmy do waszej dyspozycji.
Antena Tyflo Radia jest również.
Możecie do nas dzwonić za pomocą telefonu 663-883-600.
Tu telefon, FaceTime oraz WhatsApp polecają się waszej uwadze.
Możecie nam także wysyłać wiadomości głosowe
i również będziemy je odtwarzać w trakcie programu.
Natomiast jeżeli macie ochotę do nas pisać,
to są komentarze na YouTubie, są komentarze na Facebooku
i kontakt.tyflopodcast.net.
Te wszystkie metody są do waszej dyspozycji.
Możecie z nich korzystać, do czego was bardzo serdecznie zachęcamy.
A teraz przechodzimy już do tematów, które są w naszej rozpisce.
Jeżeli interesuje was w ogóle dyskusja na temat jakości deli,
to zapraszamy was na poprzednią audycję.
Do poprzedniej audycji, a właściwie do sekcji komentarzy,
bo tam się taka dosyć interesująca dyskusja wywiązała
i okazuje się, że to jest więcej osób, które na sprzęt tej marki narzekają,
a kiedyś byli z niej zadowoleni,
więc jeżeli sobie chcecie o tym poczytać,
to tyfloprzegląd odcinek 205 na stronie tyflopodcast.net.
Warto, żebyście sobie obejrzeli i obejrzeli konkretnie komentarze.
No a teraz przechodzimy do tematów bardzo bieżących, bardzo aktualnych,
bo Światłodzienne ujrzała już oficjalna wersja systemu iOS 17.1.
Ja sobie nawet zaktualizowałem przed momentem ten system,
więc jeszcze nic na jego temat nie wiem,
ale wie na ten temat co nieco portal Appleviews i Paweł, który tam zajrzał.
Tak, ja bardzo chętnie o tym opowiem,
ale nie wiem Michale czy tak publicznie można ten,
ale zaryzykuję, nie mamy się czym pochwalić,
bo Whatsapp chyba udostępnił opcję tworzenia kanałów.
Tak, jest kanał tyflopodcastu,
tylko zastanawiam się jak go po prostu szerzej ludziom udostępnić,
bo to jest link i ten link jest taki mało przyjazny, żeby go podyktować.
Czyli Whatsapp nie daje linków jakichś takich user friendly?
Nie.
To szkoda.
A można wyszukać kanał?
Wiesz co, właśnie powiem szczerze, jeszcze nawet się tym nie bawiłem,
ale chyba coś się da, chyba da się wyszukiwać kanał tyflopodcast.
Ja może spróbuję, czy to zadziała.
No to spróbuj, zobacz, zobacz.
Przepraszam, że mój ispig taki nieprzygotowany, szybki taki, ale no.
To chyba było aktualnienie, tak.
Gdybym tu wpisał.
Czy to zadziała?
No również syntezator nie do końca dziś przygotowany.
Ojej.
Chyba tu trzeba wejść.
No dobrze.
I chyba tu.
No nie, no nie.
Zobacz, czy ci się dobrze wpisało.
Jest.
No tak, nie ma.
Nie ma nas, nie ma nas.
Być może z jakiegoś powodu, bo na pewno kanał udało mi się stworzyć,
ale fakt faktem ten link jest taki mało wdzięczny,
ale spróbuję jakoś namówić was do tego, żebyście subskrybowali
nasz kanał na Whatsappie, bo tam też mam w planie,
tak jak na przykład na Telegramie, bo na Telegramie mamy swój kanał
i mam w planie też wrzucać tam informacje dotyczące tego,
co się u nas będzie działo i może jeszcze jakieś inne ciekawe rzeczy.
To w zależności od tego, jak to wszystko się rozwinie.
W każdym razie kanał Tyflo Podcastu rzeczywiście jest.
A z ciekawości, czy kanał Tyflo Podcastu daje możliwość
jakiegoś kontaktu w drugą stronę, czyli można go jakoś z numerem
powiązać, żeby na przykład ktoś…
Nie, właśnie jest informacja i jest informacja, że jedyna opcja
i jedyna rzecz, której nie widzą użytkownicy, to jest numer telefonu.
Okej, czyli nie da się nawet, żeby wysłać jakby i to być
jakoś zmapowane.
Nie, nie.
Okej, no może kiedyś to dobudują, zobaczymy.
Oby.
No dobrze, to przejdźmy do tego, do czego mieliśmy przejść,
czyli iOS 17.1 jest, wyszedł.
Może i ja się teraz skuszę, bo ja dalej w szesnastkowy,
co może było słychać, bo jest tam nadal wszystkim już znany
i lubiany błąd, i nielubiany, że jak otworzy nam się jakieś
pole edycji, ale my go ręcznie sami nie podświetlimy palcem,
no to ono niby jest, a jakoby go nie było i jakieś pisanie
w brajlu może tam nam specjalnie nie wyjść, więc tego błędu
już w siedemnastce ponoć nie było.
No a ja jeszcze się z nim męczę, zobaczmy, czy opłaca się
do tego 17.1 przejść.
Więc mamy tu informacje i informacje o tym, że to właśnie
wyszło dziś iOS oraz iPadOS 17.1.
No i napisali tu autorzy, że mają takie doświadczenia,
że te wersje .1 bardzo często zawierają poprawki,
no błędów dostępnościowych, które w wersjach tych 0,
w tych inicjalnych, początkowych się pojawiły.
No i rzeczywiście tak jest, nie inaczej jest teraz,
bo też błędy zostały poprawione i mamy tutaj 13 błędów na liście,
które zostały poprawione. A jakież to błędy?
W 17.0 i iPadzie i iOSie weszła możliwość transkrypcji
wiadomości dźwiękowych w aplikacji wiadomości, czyli iMessage’ów
i te transkrypty w tej początkowej wersji nie były dostępne,
a teraz już są, zostało to naprawione.
Natomiast pewnie nie działa to w języku polskim,
także my na razie nie mamy się na co cieszyć.
No może z czasem się to zmieni.
Problemy z nawigacją i fokusem w aplikacji pogoda
zostały również naprawione.
To już nas dotyczy, jak najbardziej.
Tak, to już nas jak najbardziej dotyczy.
Opcja przeciągania w pokrętle VoiceOver,
która używana jest na przykład do przedstawiania ikon na ekranie głównym,
no to już zostało też naprawione.
Nadchodzące powiadomienia banery już nie przerywają mowy VoiceOvera,
kiedy włączona jest opcja odczytywania powiadomień.
To jest to, o czym mówił też Patryk, że bardzo się z tego cieszy,
że zostało to naprawione, no więc trzeba się cieszyć.
VoiceOver znów będzie nam oznajmiał czas, kiedy go wybudzimy,
a jeżeli na ekranie blokady są jakieś powiadomienia do odczytania,
to też super, na pewno wiele osób się będzie z tego cieszyło.
Przy podpowiedziach podczas pisywania tekstu
ustawienia szczegółowości będą się zachowywały tak,
jak zostało to skonfigurowane.
Wykonywanie wyszukiwania VoiceOverowego za pomocą monitora Brailowskiego
działa jak należy.
Pewnie chodzi albo o wybór rzeczy i tam wyszukiwanie,
bo chyba o to, bo nie ma chyba innej opcji przeszukiwania ekranu, czy jest.
Teraz mi umknęło.
Aha, nie działała opcja zaznaczania niektórych akcji w arkuszu
udostępnienia jako ulubionych z VoiceOverem.
Teraz już to działa jak należy.
Teraz już wszystkie przyciski w centrum sterowania powinny mieć etykiety.
Nie miały wcześniej.
VoiceOver już nie ma problemu z oznajmianiem właściwego poziomu głośności.
Kiedy dostrajamy tę głośność przez panel, przez centrum sterowania,
VoiceOver już prawidłowo oznajmia status maili jako przeczytane,
kiedy oznaczamy maile jako przeczytane pokrętłem w aplikacji domyślnej,
natywnej maila systemowej.
Dwukrotne stuknięcie na zakładkach w Safari lub w folderach w trybie edycji
działa jak należy, czyli pewnie zaznaczają się elementy.
VoiceOver już nie poprzedza stron w Safari.
Ktyrujemy zakładki tekstem remove, czyli usunięte, czy usuń.
Wcześniej taki błąd występował.
Na ten moment dwa nowe błędy się pojawiły, o których wie zespół AppleWiz.
Być może tych błędów jest i więcej.
A mianowicie, jeżeli piszemy maila Braille’em w tym trybie stołowym,
takim Perkinsowym, czyli dwie ręce obok siebie, w czasie pisania
może skakać kursor.
Można mu się przemieszczać samoczynnie kursor.
To jest niefajny błąd.
Ja akurat używam tego trybu odwróconego, ekranem do przodu.
W tym trybie rozumiem, że tego błędu nie ma, mam nadzieję.
Byłoby super, bo jednak zdarza mi się pisać maile.
Inna sprawa, że ostatnio te maile u mnie na iPhonie lubią sobie się nie wysłać.
Klikam wyślij i niby, że poszło.
Możliwe, że mam mało stabilny internet, bo miewam.
Ale już mi się zdarzyło, że ważny email, który nacisnąłem wyślij,
i to chyba nie był pierwszy raz, po prostu się nie wysłał.
Nawet go w wysłanych nie ma.
Więc widzę, że teraz muszę po każdym wysłanym mailu
sprawdzać folder wysłany, czy aby na pewno wszystko tam jest jak należy.
A z ciekawości pojawia Ci się dźwięk wysłanej poczty, czy nie?
Ja pamiętam, że tak, ale jakbyś teraz przeskanował moje wspomnienia,
to nie byłbym Ci w stanie tego na 100% powiedzieć.
Bo ja zauważyłem też problem z wysyłką maili w Outlooku,
natomiast on raczej nie sprowadzał się do tego, że tego maila wysłać się nie dało.
Co bardziej do tego, że wysyłały się z takim opóźnieniem,
i to nie było opóźnienie sięgające dwóch, trzech sekund,
tylko tam nawet i pół minuty do minuty.
Ale to się wysyłało.
Rozumiem. No to jest ciekawe.
To jest ciekawe, zwłaszcza, że iOS ma te funkcje wycofywania przez jakiś czas
tych maili, które gdzieś tam pomyłkowo wysłaliśmy i tak dalej.
To prawda.
Więc pytanie, czy tutaj coś ten system nie nawala.
No nie wiem. W każdym razie już miałem sytuację, że mi mail niestety się nie wysłał.
Ktoś na niego bardzo czekał, zniecierpliwił się.
No więc warto patrzeć gdzieś tam.
Drugi błąd może nas mniej dotyczy, bo dotyczy sytuacji,
kiedy mamy ustawiony dwunastogodzinny format zegara.
Okazuje się, że jest błąd taki, że w zależności od tego,
czy mamy otwartą aplikację, czy jesteśmy na ekranie głównym,
to na pasku stanu tam u góry mamy albo z AMPM, albo bez.
Jak na ekranie głównym jesteśmy, to nie ma tylko sama godzina.
Taki śmieszny błąd.
No i to tyle. Wyszły też nowe wersje watchOSa, tvOSa, macOSa, Sonomy.
Ale tutaj nic o zmianach dostępnościowych mowy nie ma.
No więc też jakoś specjalnie o tym nie wspominałem.
Aczkolwiek pewnie warto zaktualizować.
Z pewnością warto zaktualizować.
A teraz takie pytanie do Was.
W kontekście korzystania z syntezy mowy.
Używacie raczej szybko, czy raczej wolno?
Szybko, szybko.
Paulino?
Znaczy nie jest to jakiś eloquence, ale syntoc.
A jak u Ciebie?
Ja w zasadzie nawet w konfiguracji podbijam RH Voices po to,
żeby móc je ponadprzeciętnie wymaksować, więc myślę, że szybko.
No ja może nie jakoś przesadnie wolno.
Nie powiedziałbym, żeby ten akurat mój Apollo był bardzo, bardzo szybki,
ale też raczej powiedziałbym, że szybciej niż wolniej.
No i okazuje się, że niemieccy naukowcy odkryli,
czemu my jesteśmy w stanie to robić nie widząc,
a osoby widzące, czy jakkolwiek posługujące się wzrokiem,
mają z tym problem.
Bo okazuje się, i do tego doszli już 13 lat temu,
a dopiero teraz udało mi się gdzieś tam w internecie trafić
na wynik tego badania, naukowcy z Uniwersytetów Tibingen.
I oni zbadali osoby niewidome oraz osoby widzące.
Wyszło, i porównując ich aktywność mózgową w trakcie słuchania
różnych rzeczy, także i przyspieszonych, jeżeli chodzi o syntezę,
no i wyszło na to, wyobraźcie sobie, że za to, że my potrafimy
i że jesteśmy w stanie słuchać syntezy w naprawdę szybkim tempie,
odpowiadają te same ośrodki w mózgu, co w przypadku osób widzących
za przyjmowanie bodźców wzrokowych.
Więc okazuje się, że to się nic nie marduje i nawet jeżeli my po prostu
nie widzimy, bo siłą rzeczy tych bodźców wzrokowych
nie jesteśmy w stanie odbierać, no to mózg się w jakiś sposób
do tego adaptuje i pozwala nam na wykonywanie różnych czynności,
m.in. właśnie słuchanie tekstów w bardzo, bardzo dużym niekiedy
przyspieszeniu i właśnie to może być powodem tego, że osoby widzące
czy np. słabowidzące, i to akurat potwierdzam, bo znam kilka osób
słabowidzących, które ewidentnie mają problem z szybką syntezą mowy,
no po prostu mają z tym kłopot, mają kłopot z takim odbieraniem
szybkim, bardzo szybkim tekstów, które są wypowiadane przez komputer,
no bo po prostu wzrok w tym przeszkadza.
To dosyć ciekawa, dosyć ciekawe wnioski.
Ale z drugiej strony, ja też znam sporo osób, znaczy, no dobra,
nie sporo, ale są takie osoby widzące, które np. przez czas,
który przebywały z niewidomymi, już tak się odsłuchały tej syntezy,
że są w stanie ją rozumieć, więc to w sumie jest ciekawe, co mówisz,
ale mi się wydaje, że to jest generalnie kwestia treningu, no bo np.
ja pierwszy raz jak usłyszałam Ispica, to w sumie tak rozumiałam połowę
i dopiero musiałam stopniowo zacząć od Agaty, potem tam przyspieszać ją,
potem jak już była za wolna, to tam jakaś Maja,
no i potem dopiero jakiś Ispik czy coś.
To znaczy, wiesz, trening to na pewno, bo jeżeli rzeczywiście tak jest,
co wyszło z tych badań, to no też i jakoś tam na pewnym etapie życia
ten nasz mózg przystosowuje się do odbierania jako takich w ogóle
bodźców wzrokowych, natomiast właśnie pytanie, czy np. te osoby, które
okej, przyzwyczajają się do korzystania z tej syntezy w dużym tempie,
to czy po prostu dla nich to korzystanie jest komfortowe,
czy po prostu są w stanie zrozumieć, no bo okej, słuchasz tej syntezy,
to siłą rzeczy prędzej czy później nauczysz się jakoś rozumieć to, co mówi,
ale czy to jest dla ciebie na tyle wygodne, że byłabyś i że chciałabyś
w ten sposób z tego korzystać. Tu podejrzewam, że może być problem,
bo dla nas, no właśnie, bo dla nas to jest komfortowe,
no po prostu ja sobie odpalam syntezę na tej swojej tam ulubionej prędkości
i ja mogę tak pracować cały dzień, wy zapewne też, natomiast ktoś,
kto nie jest do tego przyzwyczajony, to podejrzewam, że dla niego
to jest jeden wielki bełkot.
Ja jestem ciekaw, czy to jest w jakiś sposób różne u różnych osób niewidomych
i od czegoś tam zależy, no bo np. ja używam syntoka i syntok to był dla mnie
już od lat nastoletnich taki wyznacznik szybkiej syntezy,
bo dla wielu osób widzących w moim otoczeniu po prostu jest to ufoludek.
Dla mnie jako niewidomego, jak pierwszy raz go usłyszałem,
to też byłem taki przerażony, jak można tak szybko, jak można tak szybko,
po czym chwilę tego posłuchałem, popracowałem z tym i już tak zostało.
Natomiast wiem, że da się szybciej, bo ISPIC podbity, zwłaszcza jak się ten mnożnik
szybkości mu tam podkręci i w NVDA tą opcję boost czy tam jakieś podbicie prędkości
zaznaczy, no to już naprawdę nie brzmi jak ludzka mowa, a domyślam się,
że są ludzie, którzy korzystają z tego typu rozwiązań. Dlaczego tak jest?
Dlaczego tak się domyślam? Bo przecież gro amerykańskich niewidomych
czyta na tak zawrotnych prędkościach rzeczy eloquencem, że ja naprawdę jestem
ciekaw, w jaki sposób oni są w stanie zrozumieć to wszystko,
bo to jeszcze dla mnie jest dość znany język, ale jednak obcy, więc…
Czy też podejrzewam, że jakbyś podbijał o 1, 1, 1, 1 każdego dnia?
Pewnie jakoś tak to działa, ale no, no zastanawia mnie to, jak można dojść
do takiej wprawy właśnie, że aż takie prędkości się osiąga na tych syntezach,
bo to jest dużo, dużo szybciej. Ten syntog wcale nie brzmi w porównaniu
aż tak szybko.
Co prawda.
A co do brzmienia ISPICA, jak jeszcze go używam na telefonie,
teraz twojego głosu, Michale, używam, ale jak jeszcze używam ISPICA,
no to w sumie dwie takie opinie widzących mnie rozśmieszyły.
Jedna to jest, że słucham jak szemrze strumień, że co to tam, jakaś woda płynie.
A to prawda. I wiesz co? I w tym artykule właśnie, do którego link pojawi się
w komentarzu, też pojawi się takie porównanie, że ludzie rozumieją to tak,
jak właśnie taki jakiś bulgot szemrzącej wody.
Tak. A druga to jest, że po prostu coś mi się zepsuło i że dlatego to tak bulgoszy,
bo normalnie to przecież…
Tak, i to akurat ja pamiętam z własnych doświadczeń, bo kiedyś na potrzeby
jednego z klientów robiłem taki audyt, taki audyt typowo dotyczący po prostu
dostępności i tam trzeba było akurat nagrać to, co się robiło.
No i nagrałem taki materiał, pokazałem, jak ja wykonuję jakieś czynności,
wysyłam to do pani, która odbierała ten materiał, dostaję informację od pani,
ale proszę pana, tu się chyba coś zepsuło. Mówię, ale jak to się coś zepsuło?
Bo ja pana słyszę, ale tam są jeszcze jakieś zakłócenia.
Ja mówię, proszę pani, ale to jest synteza, to jest… Ja tak pracuję.
A nie dałoby się tego jakoś wyraźniej…
Co to było? To był Apollo?
Nie. Właśnie najciekawsze, słuchajcie, jest to, że był to głos Microsoftu.
Aha.
Okej, ale to…
To nawet na 100% to nie brzmi jak zakłócenia.
No właśnie, też się zdziwiłem.
Z tymi głosami ludzie są chyba zaznajomieni, bo one się często w jakichś produkcjach
YouTube’owych pojawiają jako element nawet żartu.
No, tak.
To są ciekawe rzeczy, naprawdę. Jak ludzie czasem rozumieją i interpretują w ogóle to,
czego my słuchamy na co dzień. Chociaż ja wam powiem, że jak ja pierwszy raz usłyszałem
Apolla, to absolutnie tego głosu też nie byłem w stanie zrozumieć.
I tak chyba z dzienni zajęło zrozumienie.
Ale jak już zrozumiałem, to do dziś używam.
Mamy kilka komentarzy od Maćka.
I pierwszy komentarz to w ogóle od Mąsiora, który wspomniał, że na YouTubie nie nadajemy.
A, widzisz, dobrze, że zwróciłeś na to uwagę. Dzięki bardzo.
Już odpowiedni przycisk wciśnięty i powinno już to działać.
Mam przynajmniej taką nadzieję.
A teraz już przechodząc do komentarzy od Maćka.
Witajcie. Nadsyłam tutaj informację o nowym kanale na YouTubie, który utworzyła Aga Juraszek.
A oto jej post z Facebooka z jednej grupki.
Wklejam tutaj moim zdaniem bardzo fajny pomysł.
Witajcie. Utworzyłam kolejny kanał na YouTubie o nazwie Dostępny Domek.
Na nim będą się pojawiać filmy o dostępnych urządzeniach, które możemy się zaopatrzyć
lub takie, które możemy dostosować do naszych potrzeb poprzez na przykład odpowiednie ich oznakowanie.
To urządzenia AGD, takie jak zmywarki, pralki i tak dalej, pompy ciepła, klimatyzatory i tym podobne.
Utworzyłam go, ponieważ wiele osób pyta o dostępne dla nas urządzenia dla niewidomych lub słabowidzących
lub jak można je przystosować.
Jeżeli również posiadacie tego typu urządzenia do mieszkania lub ogrodu,
to bardzo zachęcam do nakręcenia filmiku.
Może on być w wersji audio lub nagranie wideo.
Jeśli zdecydujecie się taki nagrać, to podeślijcie mi to nagranie na adres mailowy
dostępny.domek.gmail.com
Będzie mi bardzo miło, a też każdy z nas będzie wiedział,
czego użyć bez zbędnego szukania informacji na różnego rodzaju stronach internetowych.
Na kanale jak na razie jest jeden filmik o grillu, który jest dla nas bardzo ładnie dostępny.
Pozdrawiam Was bardzo serdecznie i zapraszam do kontaktu i nadsyłania filmów.
Zależy mi, by te były w jednym miejscu.
Pozdrawiam Was bardzo cieplutko i życzę miłego odsłuchu oraz miłego wieczoru.
Dzięki Maćku za te informacje.
Pozdrawiamy również Agę i ja dodam od siebie, że my bardzo chętnie też w Tyflopodcaście,
żeby ta informacja szerzyła się jeszcze bardziej, opublikujemy takie prezentacje.
Jeżeli Aga będzie się chciała też z nami takimi materiałem i podzielić,
to bardzo serdecznie również zapraszam, bo myślę, że to rzeczywiście ważne,
żeby jak najwięcej ludzi dowiadywał się o fajnych, dostępnych sprzętach.
Kolejny komentarz od Maćka.
Witajcie, bardzo się cieszę, iż kanał na Whatsappie wystartował.
Teraz tylko do szczęścia potrzebny jest link.
Byliście dotychczas na Telegramie, którego mieć nie zamierzam,
lecz teraz macie kanał na Whatsappie, którego mam i mieć zamierzam.
To świetnie. Poczujcie zewsząd mą radość.
Serdecznie Was pozdrawiam.
Pozdrawiamy Cię również Maćku.
I ten link myślę, że znajdzie się po prostu w komentarzu pod podcastem,
bo tak chyba będzie najłatwiej.
Kolejny komentarz od Maćka.
Tryb ekranu z przodu oraz tryb pulpitu.
Jeśli chodzi o wejście ekranu brajla, to tu napisał do nas Maciek chyba właśnie.
Tak, dzięki.
W ramach sprostowania.
Dziś jakieś takie jasność pomroczna czy coś i pomroczność jasna i w ogóle różne inne zjawiska.
I mi się nazwy różnych rzeczy mylą.
Dzięki, dzięki. Zawsze warto mieć ludzi na posterunku.
I kolejny komentarz od Maćka.
Ja jeszcze w iOS 17.0 miałem błąd z ginącym kursorem voiceovera
i wejściem ekranu brajla w 17.1.
Istotnie został on w większości naprawiony, jednak miałem sytuację,
że on jeszcze występuje w niektórych polach.
I to są wszystkie komentarze, które się pojawiły u nas.
A teraz nie będzie komentarz, teraz będzie telefon, bo do nas ktoś się dodzwonił.
Kogo witamy?
Tylko prosimy wyłączyć radio.
No, w ten sposób to my się nie dogadamy moi drodzy.
Kto jest z nami?
Anonimowy słuchacz.
Anonimowy słuchaczu, słuchamy cię.
Generalnie chciałam przedstawić, zrecenzować.
Pamiętam jak wspominałam tutaj o Linuxie niedawno.
Testowałam.
No i jeżeli ktoś ma, jak ustawić język polski?
Bo się nie da.
Ale jaka dystrybucja?
Jaka dystrybucja? Jaki Linux?
Elementary OS.
Ten najnowszy, co wyszedł dla nas.
No to ty Michale chyba miałeś doświadczenia, nie?
Mówiłeś, że trzeba było OCR-em, bo tamten instalator nie był zbyt dostępny, prawda?
To znaczy, czekaj tylko, czy to był Elementary OS?
Tak, to co w wirtualu odstalałeś ostatnio.
To trzeba tam było jakoś, ha, trzeba tam było jakoś ctrl-tabem przechodzić po tych elementach.
Ale ja dotarłem do jakby instalacji, a nie mogłem już go skonfigurować niestety.
Tylko udało mi się go zainstalować i poszedł restart i przestało to działać.
W ogóle zainstalować też się nie da według mnie.
A widzisz, czyli też masz problem z tym.
Jest jakiś ten scroll pane potem i już nic więcej.
A no to ciekawa sprawa.
Więc jeżeli ktoś myślał, że to będzie alternatywa lepsza jakaś dla Windowsa, to nie.
Nie będzie to lepsze.
To w ogóle z Linuxem niestety jest tak, że alternatywa dla Windowsa z niego jest, no jakaś tam na pewno jest.
Bo tych dystrybucji jest sporo i podejrzewam, że niektóre mogą być nawet całkiem fajnie dostępne.
Tylko, że po prostu do tego, żeby sobie dobrze skonfigurować tego Linuxa
trzeba przede wszystkim mieć dużo takiej wiedzy i chęci odkrywania samodzielnie różnych rzeczy.
Bo jednak ta społeczność Linuxa w porównaniu do Windowsa mam wrażenie, a zwłaszcza w przypadku dostępności, jest mniejsza.
Ty Paulino przecież kiedyś, jak dobrze pamiętam, to byłaś bardzo zafascynowana Linuxem.
I co ci z tej, że tak zapytam, fascynacji pozostało?
Z fascynacji pozostał mi WSM.
A graficznie?
Nie, tekstowo.
No właśnie.
Ale jak ci się udało to zainstalować?
WSLA?
To nie jest dystrybucja Linuxa, to jest…
Elementary OS.
A, Elementary OS, ale nie, nie, nie, ja nie używam Elementary.
Ja używam Ubuntu, Minta i tego jeszcze, co był dla niewidomych…
Jakżeż to się nazywało?
Accessible Coconut?
Nie, nie, nie, taki starszy, który już jest nawet nierozwijany.
Winux?
Winux może.
Winux, Winux, właśnie, właśnie Winux.
Także bardziej takie…
Bo Elementary w sumie jest niezależną dystrybucją,
ale możesz teoretycznie spróbować jeszcze jakichś innych dystrybucji, bo…
No i bazowany na Archu, jakieś Antergosy,
chociaż nie Antergosy już jest nierozwijane, ale Manjaro.
I chyba są też jakieś dla niewidomych oparte,
chociaż nie wiem, czy one się jeszcze rozwijają.
I właśnie na Ubuntu, znaczy na Debianie, na Ubuntu, Mint,
Coconut właśnie też przez Nalina rozwijany.
Jest zresztą grupa na Telegramie tego Coconata,
więc tam też możesz wysyłać jakieś sugestie i tak dalej.
No i cóż, cóż jeszcze więcej mogę?
Myślę, że potrzebujesz samego tekstowego interfejsu w Winuxie,
tak żeby nie na daily go używać, tylko do specjalnych zadań,
no to właśnie albo jakaś maszynka wirtualna, albo Windows Subsystem.
Ale kiedy ja chciałam zobaczyć, czy Winux nadaje się
ten nowy Elementary, co wyszedł na daily, no to ostrzegam,
nie instalujcie na głównej maszynie, jeżeli nie jesteście pewni, co robicie.
To znaczy ja w ogóle przed tego typu zabawami to bym ostrzegał,
jeżeli chodzi o instalację takiego systemu jakby obok nawet naszego Windowsa.
Od tego mamy maszyny wirtualne i fajnie od tego zacząć,
a nie instalować po prostu od razu na hura na dysku twardym jako system.
A ty Michale, jak udało Ci się zainstalować Elementary oraz jak się nie da?
No właśnie mówię, że udało mi się go zainstalować,
bo u mnie ten instalator jakoś tam się odzywał.
Wcisnąłem ten skrót, wcisnąłem ten skrót, który tam był…
No tak, a co zrobiłeś, kiedy trzeba było dysk wybrać?
Normalnie Ci przeczytał Select Disk?
Klepnąłem Enter, bo w wirtualnej miałem już ten system partycji tam przygotowany odpowiednio,
więc tam nawet niczego nie musiałem specjalnie wybierać.
Jak dobrze pamiętam, bo teraz pytasz mnie o takie szczegóły,
gdzie ja wiesz, robiłem to parę tygodni temu,
no i trudno, żebym zapisywał to, co ja tam dokładnie robiłem.
Wiem, że nie było to oczywiste.
I taką podstawową rzeczą, która była dla mnie dziwna,
to to, że trzeba było wciskać w pewnych momentach Control Tab.
Ale ostrzegam, jeżeli na przykład nowy komputer czy coś,
to najpierw polecam Windowsa, bo…
Nie no, oczywiście, że tak.
Windows najpierw i to myślę, że generalnie Windows najpierw,
a potem ewentualnie na Windowsie jakaś wirtualna maszynka
i na niej bawmy się systemami, których nie znamy
i co do których działania nie jesteśmy pewni.
To jest w ogóle taka podstawa, jeżeli chodzi o tego typu eksperymenty.
Zwłaszcza w naszym przypadku, no bo mamy jakby więcej do stracenia.
Jak nam komputer przestanie mówić, to mamy dość duży problem.
Mi tak się raz Windows wykrzaczył, bo coś…
Ale lepiej faktycznie nic takiego nie robić, bo…
No właśnie.
Ja jak mam być szczera, to uważam, że na Daily Linux
albo nadaje się dla osób, które po prostu nie wiem,
sobie przeglądają internet i tak dalej,
albo dla osób, które wiedzą dokładnie,
że wszystkie programy, których one potrzebują, te osoby,
na Linuxie się znajdą.
Bo ja szczerze mówiąc, jak teraz jestem na studiach,
no jeszcze tam w podstawówce, w liceum, to spoko.
Ten Linux na Daily mógł mi iść.
Natomiast teraz na studiach niestety nie mam takiej opcji.
Potrzebuję po prostu niektórych rzeczy, które są tylko na Windowsie
albo tylko na Windowsie są dostępne i nie przeskoczę tematu.
A też kwestia jest tego typu, że…
Że co do zabawy z systemami, no to…
Kiedyś w sumie nie wiedziałam o BIOSie
i miałam wyłączoną wirtualizację w BIOSie,
więc instalowałam tak na łapu-capu na głównej partycji.
I potem jak coś, to przeinstalowałam do Windowsa fabrycznego
i ustawiałam wszystko od nowa.
Ale teraz już wiem, że można inaczej.
I właśnie inaczej też polecam, żeby próbować.
Żeby najpierw się upewnić na wirtualcy.
Jeżeli wiemy, że o, dobra, to jest coś, co chcę, co lubię,
no to jedziemy z główną partycją.
Ale żeby nie bawić się w to z samego początku.
Potem przywracanie tych ustawień…
To jest zdecydowanie proszenie się o kłopoty po prostu.
No, dokładnie.
Czy możemy Ci jeszcze w jakiś sposób pomóc?
Chyba słuchacz nam już też podziękował za telefon.
No to okej. W takim razie w porządku.
Dobrze, słuchajcie, bo mamy tu jeszcze wiadomości
od naszych słuchaczy na Whatsappie,
więc posłuchajmy pierwszej wiadomości,
która do nas przyszła.
Dobry wieczór.
Tu Rafał po drugiej stronie.
Mam takie pytanie.
Czy znacie rozwiązanie, żeby alt nie był wciśnięty?
O co konkretnie chodzi?
O to chodzi, żeby w przeglądarce Google Home,
jak się naciska alt, żeby otworzyć się menu,
to zero jest reakcji,
a później jak się naciśnie jakiś zawolony klawisz,
na przykład strzałkę w lewo,
to mówi alt, strzałka w lewo.
To jakby alt był wciśnięty.
Czy znacie rozwiązanie, żeby ten alt nie był wciśnięty?
Żeby się normalnie zakupywał?
Takie właśnie problemy się dzieją.
Od czasu do czasu nie wiem, czym to jest spodobane,
ale tak się dzieje.
To tyle.
To tyle.
To chciał wiedzieć Rafał.
Moja propozycja jest taka,
znaczy zauważyłam, że nie zawsze mi alt wskakuje,
ale nie wiem, czy potem, jak bym wcisnęła strzałkę w lewo,
to mi się zrobi wstecz, czy nie.
Natomiast ja po prostu dociskam drugi raz ten alt,
żeby otworzyć menu.
No i w zasadzie tyle.
Nie wiem, z czego to wynika i czym to jest spowodowane,
ale tak się zauważyłam.
Chyba ma wspólnego.
Bo to się po restarcie Nvidia i czasem potrafi też naprawić.
Nie wiem, czy też się spotkaliście z tym.
Więc może ewentualnie właśnie…
Ja na szczęście jeszcze nie miałem tego problemu.
Mi pierwsze, co przyszło do głowy, to przetrzymać ten alt,
bo może on się gdzieś tam blokuje jako modyfikator,
albo klawisz trwały.
Być może.
To chyba szybciej wcisnąć dwa razy w sumie.
No to widzisz. Ja zawsze przetrzymywałem te klawisze,
które mi się blokują i to pomagało.
Okej.
No okej, to mamy jeszcze jedną wiadomość na Whatsappie,
a właściwie dwie, tylko jedna po drugiej.
Więc teraz zobaczmy, co tutaj się pojawiło.
Dobry wieczór, z tej strony Milena.
Nawiązując do poprzednich wiadomości z poprzedniego tygodnia,
to tak, sprawa pierwsza.
Tutaj mogę powiedzieć Maciejowi, że
owszem, jak tą opcję w ustawieniach AirPods’u przestawię,
no to ona przez jakiś czas wszystko jest git.
I normalnie mogę rozłączyć i odbierać połączenie,
naciskając raz tą nóżkę słuchawki AirPods.
Natomiast w pewnym momencie to się przestawia,
więc to nic nie zmienia. To jest raz.
Dwa.
Ten dźwięk w moim laptopie, ten dźwięk jest taki,
jak się tego słucha jakiegoś muzyki, czy nawet syntezatora mowy,
no to ten dźwięk jest po prostu przesterowany.
Ja zaraz postaram się wysłać próbkę.
Mam nadzieję, że to przesterowanie po prostu będzie słychać.
Pozdrawiam, życzę miłego wieczoru.
Zobaczmy, czy się próbka odtworzy.
Chyba się próbka odtworzyć nie chce
i muszę chyba ją po prostu ręcznie, że tak powiem, uruchomić.
Jest ta próbka, zobaczmy.
Próbka nagrania i tu powinno być słychać jak harczy.
Ok. No mi tu powiem szczerze, po prostu najzwyczajniej w świecie brzmi tak,
jakby te głośniki miały problem z przekazaniem aż tak głośnego dźwięku.
Pytanie, czy na przykład jeżeli ten dźwięk jest cichszy,
to czy on jest również przesterowany,
ale za takie działanie to ewidentnie moim zdaniem to odpowiadają faktycznie jakieś ulepszenia.
Być może, i tu podkreślę być może,
one są do wyłączenia tylko w jakiejś aplikacji dela jako takiej
i trzeba by skorzystać z pomocy osoby widzącej,
żeby się przeklikać po prostu przez ten interfejs,
bo być może właśnie tak jest.
Ja no niestety nie mam komputera dela, żeby jakoś coś konkretnego powiedzieć
i podpowiedzieć gdzie i jak tego szukać,
natomiast być może właśnie to są jakieś po prostu ulepszenia,
jakaś automatyczna regulacja dźwięku,
ewentualnie jakieś podbicie pewnych częstotliwości.
Tak mi na to wygląda przynajmniej to, co słyszę.
Chyba, że któryś z was jeszcze ma jakieś sugestie?
Nie, no chyba to wyjaśniłeś tak dosadnie i tak jak to jest po prostu.
Nic do raźnicy ująć.
No to przechodzimy do kolejnych tematów.
Tym razem nowa gra dla systemu iOS.
Pawle, ty coś o tym wiesz.
Wskaza się, New Eden, czyli gra bardzo mocno inspirowana,
za zgodą zresztą autora, czyli użytkownika, który na forum Audio Games
i wszędzie chyba porusza się pod nikiem Uproan,
względnie pan Kaldowski, kto kojarzy Swampa i wiele innych jego gier.
Gra inspirowana jednym z jego pierwszych tytułów,
czyli Castaways, no gra, w której sobie zakładamy naszą wyspę,
osadzamy na niej budynki i zarządzamy wszystkim,
co się na tej wyspie dzieje, czyli jakąś gospodarką,
zasobami, jakie posiadamy i tak dalej.
Tworzona przez niewidomego dewelopera.
To jest pierwszy projekt tej osoby, Ricardo Herrera.
No i gra jest na razie w TestFlight.
Jest też Discord tej gry.
Bety wychodzą mniej więcej dwa razy w tygodniu.
Autor się dopiero pewnych rzeczy uczy,
więc można się spodziewać, że będą jeszcze takie błędy wieku dziecięcego,
bolączki wieku dziecięcego.
No ale na ten moment można już właśnie tymi wyspami zarządzać
i tam tym wszystkim.
No więc warto się podłączyć w grę.
Grę można sterować za pomocą klawiatury Bluetooth oraz ekranu dotykowego.
No więc zapowiada się ciekawy kawał rozrywki,
zwłaszcza że gra Castaways też się dość ciepło przyjęła w społeczności.
No więc jeżeli jest to wasz typ gry, no to warto się zainteresować.
W komentarzu będzie link do dyskusji na forum Apple This.
No a już w tej dyskusji zarówno Discord jak i TestFlight.
Teraz informacja dla tych…
Znowu o Linuxie będzie.
Znowu o Linuxie i o Linuxie,
z którego mogą chcieć korzystać użytkownicy iOS-a.
Ja naprawdę szukałem dość długo czegoś dla siebie,
bo czasem mam taką potrzebę,
żeby zalogować się zdalnie na jakiś serwer z użyciem SSH.
No i chciałem móc to zrobić nawet jeżeli nie mam dostępu do komputera.
Oczywiście wiadomo, że to będzie wolne,
że może niekoniecznie będzie to efektywne,
ale czasem jestem w takiej sytuacji,
że po prostu muszę coś zrobić na danym serwerze,
a jedynym narzędziem, jakie mam pod ręką jest telefon.
No i co w tej sytuacji?
Wcale nie jest dobrze, jeżeli chodzi o dostępne klienty SSH
dla voice-overa na iOS-ie.
Jakieś tam gdzieś widziałem rekomendacje z AppleVisa,
natomiast no nic z tego nie spełniało moich oczekiwań,
po prostu źle się czytało ekran.
Jakiś czas temu, jak dobrze pamiętam,
Piotr w audycji jednej z…
wspominał o takim Linuxie, który można sobie postawić na iOS-ie.
Jest to po prostu aplikacja, która się nazywa ISH
i ta aplikacja jest po prostu takim Linuxem, do którego sobie wchodzimy.
To jest Alpine Linux, jak dobrze pamiętam.
No i możemy tam po prostu odpalać różne polecenia.
No to tak sobie pomyślałem, bo bawiłem się trochę tą aplikacją,
pomyślałem sobie, że skoro tak, to może da się jeszcze jakoś połączyć
za pomocą SSH z innym serwerem.
No i na samym początku nie dało się,
bo domyślnie w Alpine z jakiegoś powodu niej był zainstalowany SSH.
Natomiast wystarczy wydać jedną prostą komendę,
mianowicie to jest komenda apk add open ssh,
instalujemy sobie właśnie tę paczkę,
nam dociąga tam odpowiednie zależności i już mamy po prostu działający klient SSH.
Wtedy sobie wpisujemy tylko SSH,
no i potem to zgodnie ze składnią tam użytkownik, małpa host,
w zależności od tego czy logujemy się hasłem, czy jakimś certyfikatem się logujemy,
to trzeba już sobie to doczytać w Readme.
I jest jedna bardzo fajna rzecz w tym kliencie,
mianowicie taka, że ma dostępne strzałki kursora.
I to jest dostępne i to działa także tak po prostu,
kiedy korzystamy z tego Linuxa, ale działa nam to też zdalnie.
I mamy taki bardzo fajny wybieracz, którym sobie regulujemy,
przesuwamy na przykład strzałki w górę, w dół,
jak go klikniemy to się przełącza na strzałki lewo, prawo,
ale możemy sobie po prostu po tej historii się przemieszczać
i wykonywać polecenia, które były już na danym serwerze wydawane wcześniej.
A strzałkami lewo, prawo, wiadomo, możemy sobie te polecenia jeszcze przy okazji edytować.
Czyli tak jak w każdym terminalu.
To jest rzecz naprawdę bardzo fajna.
A druga fajna rzecz to jest fakt, że ten ISH wspiera wejście ekranu Brailla.
Więc jeżeli mamy do wpisania jakieś polecenie,
to możemy sobie wpisać je bardzo szybko z poziomu ekranu Brailla.
To jest jedna dobra wiadomość.
Mniej dobra i mniej pozytywna jest taka, że niestety, ale opóźnienia,
zwłaszcza na serwerach zdalnych, do których się gdzieś tam łączymy
i jeżeli się jeszcze łączymy gdzieś w trasie za pomocą łączności komórkowej,
no to potrafią być duże i tu trzeba trochę jednak cierpliwości.
To nie jest tak, że sobie coś szybko wstukamy i to się zadzieje.
Musimy wtedy poczekać, aż ten voiceover przemówi,
aż nam potwierdzi, że wpisaliśmy na pewno to, co chcieliśmy wpisać
i że to po prostu nam wszystko zadziała.
Ale moim zdaniem to jest naprawdę jeden z lepszych, przynajmniej dla mnie.
Być może Wy znacie też jakieś dostępne klienty SSH.
Jeżeli macie coś lepszego do polecenia od ISH, no to jestem jak najbardziej otwarty.
Ale ja powiem szczerze, szukałem, szukałem i jakoś znaleźć nie mogłem niczego ciekawego.
Więc ISH, instalujemy Open SSH i po prostu działamy sobie zdalnie.
Więc ja osobiście polecam.
A teraz przechodzimy do kolejnego tematu, tym razem nowości Polskiego Związku Niewidomych.
Pawle.
Tak, na trzy w tym tygodniu się zdecydowałem z tego, co się działo.
Pierwsza, jak to często z takimi nowościami bywa, dotyczy Warszawy.
Tym razem mamy spektakl z audiodeskrypcją i Touch Tour.
Touch Tour, czyli możliwość zwiedzenia sceny przed spektaklem
i zapoznania się dodatkowo z rekwizytami, ze strojami, ze scenografią.
Czyli możemy rzeczywiście w pełni tego przedstawienia później doświadczyć.
No i poczytajmy, jak to wygląda.
I to już dość szybko, bo to chyba teraz już w sobotę,
więc jeżeli nas słuchacie na żywo, to się bardziej załapiecie, no ale podajemy.
Dzielnicowy Ośrodek Kultury Ursynów zaprasza na spektakl z audiodeskrypcją
i tłumaczeniem na polski język migowy.
Dla osób niewidomych i słabowidzących przygotowano specjalną atrakcję,
Touch Tour, możliwość wejścia na scenę i zapoznania się z układem dekoracji.
Wydarzenie odbędzie się 28 października bieżącego roku, bilety 10 zł.
Spektakl pod tytułem Henio, czyli sposób na babcię.
Żyjemy w trudnych czasach wolnego rynku i ostrej konkurencji.
O własny biznes trzeba dbać wszelkimi dostępnymi sposobami.
Tylko co zrobić, gdy pracujesz w branży pogrzebowej,
w twojej firmie nagle zabrakło miejsca dla nowych klientów,
a do pomocy masz jedynie żółtodzioba i emigranta z za wschodniej granicy?
Z takich tarapatów może cię uratować tylko jedna osoba, babcia.
Spektakl dla widzów od 14 roku życia.
Spektakl odbędzie się 28 listopada.
A moment, a co było wyżej?
Tu jest napisane października, a tu poniżej jest napisane, że listopada.
To trochę czuję się skonfundowany, nie ukrywam.
Listopada o godzinie 18, a touch tour o 17.
Wstęp płatny 10 zł, bilety dostępne na www.biletyna.pl.
W sekretariacie właśnie Domu Dzielnicowego Ośrodka Kultury Ursynów.
Tak, oraz bilety macie w holu głównym
Dzielnicowy Ośrodek Kultury Ursynów, ulica Kajakowa, 12 B, 02 803 Warszawa.
Telefon 22 125 56 02.
No to jeśli chodzi o kwestię rozrywkową, a teraz wracamy do kwestii trochę bardziej poważnych
i które już nie dotyczą tylko Warszawy, aczkolwiek w Warszawie odbyło się spotkanie,
konferencja dotycząca tego, o czym będziemy mówić, czyli o tym,
czy coś się zadzieje w kwestii naszych, bo osób z niepełnosprawnością, praw
i tego, co się może dla nas zmienić, bo odbyła się 9 października,
konferencja dotycząca wdrożenia konwencji ONZ o prawach osób z niepełnosprawnościami,
czyli takiano już dość trochę lat mająca, kilkanaście, konwencja,
takie zgoda wielu państw, umowa, że coś się w naszych kwestiach zmieni
i to nie tylko Unia, a nie Unia, to cały świat to wdraża,
w różnym stopniu się to w różnych krajach realizuje, natomiast nas interesuje
w tym momencie Polska i to, co nas może bądź nie może czekać.
Na konferencji w Warszawie podsumowana została seria propozycji zmian
w nowej ustawie wdrażającej Konwencję ONZ o prawach osób niepełnosprawnych.
Nad projektem pracowało 40 ekspertów. Zaplanowano zmianę w 168 ustawach.
Konferencja pod tytułem Konwencja ONZ o prawach osób niepełnosprawnych
w Polsce, dalsze wyzwania, miała miejsce 9 października 2020 roku w Warszawie.
Nad projektem nowej ustawy pracowało 40 ekspertów reprezentujących
organizacje pozarządowe, urzędy TPS-y, domy pomocy społecznej,
warsztaty terapii zajęciowej, powiatowe centra pomocy rodzinie oraz uczelnie.
Projektem jest analiza faktycznej sytuacji osób z niepełnosprawnościami
oraz propozycje nowych zasad prawnych w formie obszernej dokumentacji.
Najdłuższy dokument liczy 814 stron, a prace dotyczyły między innymi
dostępności cyfrowej i informacyjnej i komunikacyjnej, zdrowia oraz budżetów
osób z niepełnosprawnościami, ich aktywności zawodowej i sytuacji mieszkaniowej.
Omawiano także centra niezależnego życia oraz wsparcie w środowisku lokalnym.
Specjaliści zaproponowali zmiany, aż w 168 ustawach uzasadnienia zostały zawarte
na 99 stronach. Jedna z propozycji to zmiana w systemie orzecznictwa.
Orzeczenie wystawiane osobom z niepełnosprawnościami powinno zawierać
nie tylko informację o tym, do czego ta osoba jest niezdolna,
ale także czego potrzebuje, aby mogła w pełni funkcjonować w społeczeństwie.
Taka informacja będzie przydatna między innymi dla pracodawcy,
który na tej podstawie będzie mógł opracować i dostosować stanowisko pracy,
tłumaczyli prelegenci. Koszty wdrażania nowych rozwiązań oszacowali eksperci
ze Szkoły Głównej Handlowej w Warszawie. W konferencji uczestniczyli między innymi
Małgorzata Wójcik z Biura Pełnomocnika Rządu ds. osób niepełnosprawnych,
Monika Wyszyńska-Rakowska, Pełnomocniczka Rzecznika Praw Obywatelskich
ds. osób niepełnosprawnych, dr Krzysztof Kurowski,
przewodniczący Polskiego Forum Osob z Niepełnosprawnościami,
a także reprezentant Fundacji Instytutu Rozwoju Regionalnego.
Instytut, instytut.
Tak jest napisane w artykule.
Instytutu? No to, no to nie. Zdecydowanie nie Fundacji Instytutu Rozwoju Regionalnego.
Ja tak przeczytałem za osobą, która napisała ten artykuł.
Dobrze, no więc, więc ktoś z firm był. To też miło słyszeć.
W spotkaniu wziął również udział przedstawiciel Centrum Komunikacji
Polskiego Związku Niewidomych. No i to tyle, co się dowiemy,
więc na razie są to propozycje. No zobaczymy.
Co z ich wdrożeniem. Co z ich wdrożeniem i jak się to wszystko
przyjmie na szerszym forum. No i na koniec są nabory wniosków
do programu Uczelnia Otwarta dla osób z niepełnosprawnością.
No i co tutaj się zadzieje. Narodowe Centrum Badań i Rozwoju
ogłasza dobru wniosków do dofinansowania projektów realizowanych
przez uczelnie wyższe oraz podmioty prowadzące szkoły doktorskie.
Celem tego przedsięwzięcia jest niwelowanie barier w dostępie
do edukacji dla osób z niepełnosprawnościami.
Wnioski są przyjmowane do 18 stycznia 2024.
Celem naboru pt. Dostępność podmiotów szkolnictwa wyższego
jest usuwanie barier w dostępie do edukacji na poziomie wyższym.
Działanie jest adresowane m.in. do jednostek szkolnictwa wyższego,
które nie realizowały projektów w ramach konkursu
Uczelnia Dostępna w programie Power. Na zapewnienie osobom
z niepełnosprawnościami możliwości skorzystania z oferty
podmiotu szkolnictwa wyższego przeznaczono kwotę 150 mln zł.
Środki pochodzą z programu Fundusze Europejskie dla Rozwoju Społecznego.
Uczelnie mogą składać wnioski w aplikacyjne wyłącznie
za pośrednictwem generatora wniosków SOWA-EFS.
Nabór wniosków rusza 23 października i potrwa do 18 stycznia 2024.
Szczegóły dotyczące naboru, w tym pełna dokumentacja konkursowa,
znajdują się na stronie. I tutaj jest link podany, który będzie
oczywiście w artykule, a artykuł w komentarzu, jak zwykle.
No i to wszystko na ten tydzień, jeśli chodzi o nowości opublikowane
przez Polski Związek Niewidomych.
A my zaglądamy na naszego Whatsappa, zobaczymy kto do nas tym razem
nagrał wiadomość, a nagrał nam wiadomość z tego co widzę Bartek.
No to posłuchajmy co Bartek ma do powiedzenia.
Witam. Chciałbym jeszcze zadać pytanie w temacie poprawek w iOS-ie 17.1.
Czy wiecie może, czy został już naprawiony problem ze znikającą
klawiaturą podczas przenoszenia danych z iPhona na iPhona?
Pytałem o to w zeszłym tygodniu. Zastanawiam się, czy kiedy będę wracał
do mojej trzynastki, będę mógł wybrać ponownie opcję przenoszenia
danych z iPhona na iPhona. Pozdrawiam.
Pozdrawiamy Cię Bartku. No tu w tych informacjach o rozwiązanych
problemach, które przytoczył Paweł, nie było takiej informacji,
że ten błąd został naprawiony, więc trzeba będzie niestety
obawiam się sprawdzić własnoręcznie.
No dobrze. To teraz kolejny temat. Temat od naszych zachodnich sąsiadów,
bo to okazuje się, że na poręczach niemieckich dworców całkiem możliwe,
że pojawi się już niedługo więcej brailowskich napisów.
Na chwilę obecną takie napisy z tego, co czytałem, występują.
Ty Pawle, możesz to jakoś potwierdzić?
Tak, jak najbardziej. Na poręczy są napisy, które informują o tym,
dokąd prowadzą schody, na przykład, że na peron jakiś tam numer
i to widziałem na pewno Dusseldorf, ale myślę, że trochę więcej
większych miast ma takie rzeczy. Zastanawiam się, co tutaj jest innego,
bo w Polsce przecież też się to pojawia, albo na poręczy, albo gdzieś
na wysokości naszej klatki piersiowej twarzy, na ścianach, bo teraz,
jak są dworce odremontowane, to też te oznaczenia brailowskie
wchodzą w Polsce, z tego, co pamiętam.
Zgadza się, natomiast ponoć, przynajmniej ta technologia,
która była do tej pory wykorzystywana przez twórców takich napisów
na niemieckich dworcach, była droga, była mało efektywna,
a teraz ma być lepiej. Jest sobie taka firma, która nazywa się CFK
i właśnie ona doszła do porozumienia z Deutsche Bahn i będzie produkować
poręcze na niemieckie dworce. To wszystko za pomocą specjalnej
technologii, która nazywa się Laser Beam Powder Bed Fusion.
Bardzo mądrze to zostało nazwane, a w praktyce polega to na tym,
że na taką poręcz jakby nanosi się napisy i tu, co ciekawe,
albo w brailu, albo w czarnym druku, w zależności od tego, co chcemy,
bo wypukłe litery będą mogły być i takie, i takie.
Natomiast nanosi się to z użyciem specjalnego proszku,
który następnie podgrzewa się z użyciem lasera.
Takie napisy mają być trwalsze, mają być też prostsze, jeżeli chodzi
o ich wykonanie. No więc całkiem możliwe, że tych napisów po prostu
będzie się pojawiało jeszcze więcej, może do czegoś jeszcze
będzie można je wykorzystać. To jest informacja sprzed kilku tygodni,
więc tak naprawdę jeszcze podejrzewam, że na konkrety i na konkretne produkcje
tego typu poręczy trzeba będzie trochę poczekać, ale fajnie,
że została opracowana jakaś technologia. Swoją drogą ciekawe,
jak to u nas w Polsce wygląda, jak te napisy się tworzy od takiej strony
technicznej. Czy to też jakiś właśnie taki proszek, czy to w jakiś inny sposób
się to wykonuje. No ale może rzeczywiście też i gdyby w Polsce
coś takiego zastosować, to dałoby się tego typu poręcze przygotować
chociażby szybciej. Chociaż tak się zastanawiam, bo niektóre te poręcze,
zwłaszcza na starych dworcach, to są drewniane jeszcze.
No więc na takiej poręczy jakby tam laserem to przygrzać,
to mogłoby się okazać, że będzie problem.
Pewnie zostaje tylko mur.
Tak jest.
To jesteśmy już na świecie, to na świecie pozostańmy.
Pawle, jakież tam wieści ze świata masz dla nas?
To ja może poproszę prawo do udostępnienia dźwięku.
Już je masz.
Pierwsza rzecz, już je mam. To jest troszeczkę przesuniemy w czasie
naszą niespodziankę z końca. Zazwyczaj na koniec puszczam wam
dźwięki z różnych krajów, ale teraz uznałem, że warto to w regularnych
newsach uwzględnić, bo rzecz jest ciekawa. Otóż mamy…
Pawle, nie słyszymy cię.
O, a teraz?
O, teraz tak.
Tak. Dzięki mojemu znajomemu, który ostatnio miał okazję lecieć
w ten sposób, mamy informacje o tym, jak wyglądają takie ekrany.
Jak kojarzycie samoloty, jak się leci samolotem, zwłaszcza jakichś takich
bardziej bogatszych linii lotniczych, jak narodowy przewoźnik itd.,
no to tam są takie całe centra rozrywki, gdzie można sobie oczywiście
zobaczyć, jak samolot leci, poczytać jakąś tam ofertę, oglądać jakieś
filmy na takich dłuższych lotach zwłaszcza, wezwać nawet obsługę,
bo takie samoloty już nie mają często tych przycisków takich do wywołania
obsługi, a mają ekrany dotykowe, gdzie wszystko się robi.
No i okazuje się, że…
Tutaj już moja synteza jest. No dzięki odpowiedniemu ustawodawstwu
i odpowiednim ustawom w Stanach, które są, a w Europie, z tego co wiem,
jeszcze ich tak do końca nie ma, no przewoźnicy tacy właśnie globalni
są zobligowani do tego, żeby, jeżeli latają po Stanach
lub jeżeli w Stanach mają założoną działalność, żeby udostępnić
wszystko, co się da, no więc w tym też ekrany dotykowe tego typu.
No i właśnie znajomy ostatnio miał okazję lecieć United Airlines,
czyli chyba taki największy albo jeden z większych przewoźników
amerykańskich, tak to ten, który obrajlowił ostatnio miejsca siedzące,
bo o tym też mówiliśmy, trochę o tym Michale o tym mówiłeś,
albo Piotr, już teraz nie pamiętam. I okazuje się, że oni mają również
dostępne takie serwisy, a że, że tak powiem, nie mamy jeszcze
za wielu dobrych praktyk w zakresie dostępnych terminali jakichkolwiek
i tych kiosków, no to zawsze tego typu przykłady są na wagę złota.
No i ja właśnie wam puszczę taki przykład.
Przecież audycja z o.o. z o.o.
United Airline, United Airline, audio pościgniona, start.
Audio poścignione, jeden sekund.
Audio poścignione, wyłączone.
Siedmiotny przycisk, poścignione, pięć sekund.
In this video we’ll first provide you with an overview of how to activate
and use the text-to-speech features available on our in-flight
entertainment system through touchscreen gestures.
Then we’ll review how to navigate the text-to-speech features
using the handset in premium cabins.
To quickly activate text-to-speech mode, use two fingers to slowly
triple tap the screen.
Czyli trzy razy, dwoma palcami stukamy delikatnie w ekran, powoli
i włącza się nam TalkBack, bo na TalkBacku, na Androidzie
bazuje cały ten system. No więc słuchajmy dalej.
Audible confirmation, TalkBack on.
And a teal border will appear to indicate that text-to-speech mode
has been activated. For best results, use a gentle to medium touch
in the centre of the seatback screen. TalkBack on.
To quickly deactivate text-to-speech mode, use one finger to swipe left,
then down in one gesture.
Czyli w lewo i w dół gest wyłącza ten tryb. My go najpierw włączamy
tym gestem, o którym mówiłem wcześniej, słyszymy TalkBack on,
no i też pojawia się jakiś taki symbol na ekranie, który wskazuje nam,
że ten system jest aktywny, no a pociągnięcie w lewo i w dół,
takie powolne, sprawia, że tego systemu mowy już nie ma.
Hear an audible confirmation, TalkBack off, and the teal border
will disappear. Once text-to-speech mode is activated, TalkBack on.
You can navigate through the interface by using one finger to swipe
left and right anywhere on the screen. This moves the focus between
the items on the screen. To activate an item in focus,
double tap with one finger anywhere on the screen.
By default, all of the text…
No, czyli typowo, jakbyśmy się spodziewali, tak, w TalkBacku,
przesuwanie palcem w prawo lub w lewo przemieszcza nas po elementach,
dwukrotne stuknięcie aktywuje element.
Within a focused element will be read.
To change the granularity of the readout.
To read only a paragraph, line, word or character at a time.
Swipe up or down with one finger.
No, czyli mamy szczegółowość TalkBackową wyjaśnioną również,
czyli palec w górę, palec w dół przełącza nas po różnych szczegółowościach,
tam znaki, wyrazy, akapity i tak dalej.
No, są swoją drogą chyba jeszcze stare gesty, bo nie wiem, czy teraz,
jak są wprowadzone gesty wielopalczaste w nowszych androidach,
tutaj nie zostało przypadkiem, ale może się mylę,
zmapowane na coś innego, natomiast tutaj tak jest.
Czyli jest w opcjach dostępności w sekcji wzrok opcja eksplorowanie dotykiem,
która pozwala też po prostu palcem wskazywać na ekranie elementy,
one będą przeczytane i ja się zaczynam zastanawiać,
jaka tam jest wersja androida, bo ile to już minęło czasu,
odkąd ta funkcja w ogóle zniknęła, no nie da się jej wyłączyć,
bo po prostu rozumie się samo przez się, że jak włącza się TalkBacka,
no to działa jednocześnie eksplorowanie ekranu,
zarówno gesty, jak i eksplorowanie, bo to już nie są czasy telefonów
z klawiaturą, gdzie główną metodą nawigacji była klawiatura,
a ten dotyk to był taki sobie dodatek, to mówimy o czasach
androida 4.0, 4.1, więc albo ten android jest jakiś bardzo stary,
albo jakiś mocno modyfikowany, no ale okej, ważne, że działa.
[…]
No i to w zasadzie tyle, bo dowiedzieliśmy się jeszcze,
że możemy dostosować parametry syntezy mowy,
takie jak głośność, prędkość, wysokość, no i żeby to zrobić,
trzeba donawigować do ustawień naszego ekranu dotykowego,
dalej wejść w sekcję dostępność, dalej w sekcję wzrok,
no i tam już te opcje wszystkie znajdziemy.
No niestety kolega, przynajmniej do tej pory, nie zameldował mi się
jeszcze z przykładami tego, co na takim ekranie można zrobić
i jakie te różne opcje są, więc na przykład nie posłuchamy sobie,
jak się wchodzi w jakieś tam sekcje, nie wiem, filmów, seriali, catering,
może tam się da zamawiać jakieś jedzenie do naszego stolika,
wezwać obsługę i tak dalej. No może kolega jeszcze jakieś
nagrania dodatkowe dośle, jeżeli je posiada, jeśli tak,
to z chęcią je puszczę, bo mam na to pozwolenie, no a jak nie,
no to może ktoś z Was kiedyś poleci albo z nas do Stanów
i będzie dane nam lecieć United Airlines i wtedy się przekonamy,
jak to wszystko działa w dużo większym szczególe.
To jeśli chodzi o Stany, no a teraz przeniesiemy się
znacznie bliżej, bo do Francji, bo tamtejszy Związek Niewidomych,
AVEGLE de France, właśnie otworzył niedawno taki serwis
Observatoire de Accessibilité Numérique i to jest obserwatorium
dostępności cyfrowej i jest to bardzo ciekawy koncept,
bo no zazwyczaj różne organy takie państwowe, które zajmują się
ewaluacją dostępności, wypuszczają takie raporty zbiorcze,
no przynajmniej w Austrii wiem, że taki raport wyszedł,
nie wiem Michał, ale w Polsce też pewnie coś jest jakoś dokumentowane
czy nie, o tym na przykład, że jakieś audyty zostały przeprowadzone
i że taki, powiedzmy taki procent instytucji, które powinny…
Tak, no pojawiają się takie raporty.
No dokładnie, no to tam podejście jest troszkę inne,
bo oczywiście oprócz tego, że takie dane zbiorcze są podane,
to również publikowane są, wytykane są palcem konkretne instytucje
i mamy podział na kategorie, mamy instytucje administracji publicznej,
mamy też firmy prywatne, no bo już w międzyczasie te ustawy europejskie
powoli rozszerzają się też na te instytucje, na firmy prywatne
z konkretnych sektorów i jest zapotrzebowanie na takie audyty.
No i mamy podział właśnie też, czy to są dostawcy żywności,
czy to są dostawcy multimedialnych treści, czy to są uczelnie,
czy to są firmy transportowe i tak dalej.
I możemy sobie po kategorii przeglądać i zobaczyć sobie,
ile instytucji z danej kategorii spełnia wymogi w stu procentach,
a ile nie, ale możemy też przeglądać indywidualnie oceny
dla konkretnych instytucji. No i tutaj już mamy dostęp do tego,
kiedy wykonano audyt, czy dana instytucja, w jakim stopniu,
jaka jest ocena, czy to jest instytucja dostępna, częściowo dostępna,
czy niedostępna. Mamy też link podany do deklaracji dostępności.
Mamy też informację, kiedy ta deklaracja została napisana,
czy dzień jest aktualny, czy jeszcze jest aktualny, bo pamiętajmy,
że ustawy również wymagają, żeby te deklaracje co kilka lat aktualizować
i informować o postępach.
Co roku nawet u nas.
O, widzisz, no to tak. I w takiej sytuacji po prostu można przejrzeć sobie,
jak dana instytucja sobie radzi. No i z jednej strony jest to ciekawe,
żeby sobie porównać, że we Francji to jest tak, a w Polsce to jest tak,
ale z drugiej strony jest tam dużo firm, które nie tylko działają
na rynku francuskim, ale też międzynarodowo, a bardzo często strony
np. francuskie to jest po prostu podstrona strony globalnej,
np. tak jest w przypadku firmy Danone, jak patrzyłem, to francuski danone
to jest danone.com ukośnik fr.html, więc jest bardzo duża szansa,
że jeżeli tam przeczytamy jakąś deklarację dostępności,
no to być może będzie ona też obowiązywała całą resztę strony Danone,
a firm jest tam trochę, bo jest Bunduel, Barilla, Barilla i tam jeszcze
kilka innych, więc spokojnie można sobie przejrzeć takie firmy,
które gdzieś tam globalnie działają i to nam też da jakikolwiek,
ale obraz tego, jak to działa międzynarodowo i jak dana firma
do tego podchodzi, myślę, że też warto popatrzeć pod tym kątem,
żeby sobie porównać, jak to działa we francuskich oddziałach
konkretnych firm, które też działają na polskim rynku,
no wszak na polskim rynku, co działa z Francji.
Orange działa, Credit Agricole działa, Canal Plus i wiele innych instytucji,
które może nawet nie są z francuskim rodowodem, ale we Francji również działają
i w Polsce też, chociaż pochodzą z jakiegoś innego kraju
i to nam da pewien obraz tego, na ile ta globalizacja tak naprawdę działa
i na ile ta polityka korporacyjna danej firmy rozszerza się na inne kraje,
no bo jeżeli np. takie, nie wiem, chyba ING też jest we Francji, bank,
we Francji jest jakoś tam dostępny i ma tą deklarację dostępności,
która obiecuje coś, a w Polsce wygląda to inaczej,
no to już np. daje nam to jakiś obraz tego, jak dana firma dba o to
i na ile daje autonomię w pewnych decyzjach, ale też dba o to,
że ta jej marka była dostępna na różnych rynkach,
więc jest to bardzo ciekawe rozwiązanie, bardzo ciekawe podejście do tematu.
Ja, szczerze mówiąc, nie spotkałem się z tym jeszcze w innych krajach,
a szkoda, bo to byłoby bardzo fajne narzędzie porównawcze,
żeby poprzeglądać się trochę, jak to jest wszystko rozpowszechnione
i rozsmarowane, jak powiem, na tej kanapeczce, jaką jest nasza mapa świata.
Więc polecam sobie z jakimś Google Translatorkiem zajrzeć i pooglądać,
jak to wszystko się plasuje.
Jeszcze musiałbyś, o, właśnie sobie, Pawle, wyłączyć.
A a propos dźwięku, to teraz posłuchajmy sobie, co ma nam do przekazania Grzegorz.
Cześć Wam. Chciałbym się odnieść do anonimowego słuchacza.
Nie mówię, że Linux ma zastąpić Windowsa, ale może być niezłym uzupełnieniem.
Bo nigdy nie wiadomo, do czego narzędzia linuksowe mogą nam się przydać?
Po drugie, ja jakoś instaluję.
W moim przypadku Linux MintMaty na osobnej partycji obok Windowsa
i działa jak należy.
Co do Elementry, chyba lepiej instalować na bare metal,
gdyż wirtualki mogą robić cuda.
Jak to możliwe? Warto zaopatrzyć się w drugi komputer,
a jak nie do rozwiązania obok Windowsa,
choć jest to troszkę niewygodne, gdyż trzeba się przełączać między systemami.
Pozdrawiam.
Sorry za ten głos z Eleven Lens, taki na początku stworzyłem,
ale za niedługo nagram lepszy, nie taki przemulony.
Serio, byłam pewna, że to Eleven…
…bo bardzo ciężko znaleźć dostępną apkę do SSH, zwłaszcza na Androidzie.
Dziękuję.
Dzięki Grzegorzu. No, trzeba przyznać, że Eleven Labs robi robotę.
Byłam stuprocentowa pewna, że to jest Eleven w pierwszym zdaniu,
ale nie chciałam przerywać.
Tak. I nawet całkiem nieźle się spisał, przynajmniej na samym początku.
Drugi model ma dużo problemów z przełączeniem języków.
Właśnie przy okazji, Proteib, jeżeli widzicie,
że wasz głos jest dobrze przetwarzany przez pierwszy model,
to używajcie pierwszego modelu. Dlaczego?
Dlatego, że po pierwsze będziecie szybciej dostawać wyniki.
Głosy, dźwięk.
A po drugie dlatego, że pierwszy model ma mniej języków,
a przez to, że nie da się, nie wiem, oznaczyć, wybrać języka i tam innych,
przez to, że to jest jeden wielki miks,
to im mniej jest języków w modelu, tym mniejsze jest prawdopodobieństwo,
że AI sobie nagle wymyśli, że to jest w jakimś innym języku niż jest naprawdę
i tam przełączy język właśnie tak, jak widzieliśmy u Grzegorza.
Czyli właśnie, no jeżeli macie głos, którego pierwszy model
nie jest zbyt fajnie przetwarzany, to drugi jak najbardziej,
ale w innym przypadku ten pierwszy będzie dużo bardziej wydajny.
Mamy jeszcze jedną wiadomość głosową, tym razem wiadomość od Rafała.
Ja chciałam tylko dodać, co do tego autu, że to nie ma znaczenia,
czy to jest JAWS, czy VAUDA i nie ma znaczenia,
czy dwa razy go nacisnę, czy go przytrzymam.
Cały czas, jak go nacisnę, jest jakby wciśnięty.
Właśnie w tym miks polega cały, że nie wiadomo jak to zrobić, żeby go odcisnąć,
bo w żaden sposób nie pomaga.
A to ciekawe, tak jak mówię, ja zaobserwowałem, że dzieje się tak
w przypadku NVDA, włączonego czasem pomaga po prostu naciśnięcie CTRL-ALT
i wtedy to zaczyna prawidłowo działać.
Tymczasem kolejny temat, mianowicie Envision i nowa funkcja w tej aplikacji.
Nowa funkcja, która nazywa się Explore.
Dziś się pojawiło Envision, nowe i właśnie udostępnili takie narzędzie
w swojej aplikacji.
Cóż to takiego jest?
Mam wrażenie, że to jest wykorzystanie bazy już tych różnych obiektów Envision,
które zna, natomiast w trochę inny sposób.
Otóż aktywujemy sobie te funkcje i w tym momencie
Envision zaczyna nam mówić o tym, co znajduje się przed naszą kamerą.
Wystarczy to sobie włączyć, kierować kamerę gdziekolwiek i będziemy mieli
informację na bieżąco dotyczącą tego, przed czym ta nasza kamera się znajduje.
Ja może nawet spróbuję teraz to zademonstrować, jak to działa w praktyce.
Działa to powiedziałbym różnie i raczej różnie jest z precyzją tego,
natomiast spróbujmy się tym pobawić.
Włączam funkcję Explore.
Telefon komórkowy, klawiatura komputerowa, klawiatura komputerowa, klawiatura komputerowa,
klawiatura komputerowa, klawiatura komputerowa, klawiatura komputerowa,
fortepian.
O właśnie, mam przed sobą kontroler taki DJ-ski i on to interpretuje jako fortepian.
Telefon komórkowy, telefon komórkowy, laptop.
Gdzie on tu widzi telefon komórkowy to ja nie wiem.
Telefon komórkowy to ja w ręku trzymam.
Laptop? No jest po lewej stronie.
A teraz już nic nie powie.
A po prawej?
Filiżanka kawy, filiżanka kawy, filiżanka kawy, filiżanka kawy, filiżanka kawy.
Mam tu na przykład jeszcze butelkę z wodą.
Butelka, butelka, butelka, butelka.
Takie podstawowe rzeczy.
Filiżanka kawy, klawiatura komputerowa.
To on jest w stanie wykrywać.
Klawiatura komputerowa, butelka, butelka.
Ludzka twarz, ludzka twarz, ludzka twarz, ludzka twarz.
Klawiatura komputerowa, klawiatura komputerowa, klawiatura komputerowa.
Tak, ludzka twarz.
Z pewną drogą mógłby się mniej ten, bo na przykład look out tak nie ma.
Jak teraz coś powie, to już nie powtarza tego jak ma.
On jest bardzo irytujący właśnie pod tym względem, że powtarza ciągle, powtarza, powtarza
i nie da się go zmusić, żeby przestał.
Ale też zwróćcie uwagę, że look out, połączenie internetowe niestabilne.
Ale słuchajcie dobrze.
Okej, look out wskazuje nam również, na której godzinie mamy ten nasz obiekt.
Więc to jest bardziej użyteczne niż machanie kamerą gdzie bądź.
Zwłaszcza jak na przykład, nie wiem, idziemy ulicą i mogą być rzeczy,
zwłaszcza jak sobie umieścimy ten telefon jakoś tam w jakichś powiedzmy,
no w jakichś szelkach czy gdzieś i idziemy sobie powiedzmy ulicą
albo nawet przez jakiś większy pokój.
No i słyszymy zapowiadane absolutnie wszystko, czyli z lewej, po środku, z prawej.
I look out był w stanie nam powiedzieć na której godzinie,
więc ja byłem w stanie stwierdzić, że nie wiem, coś jest przede mną,
ale po prawej bardziej albo centralnie.
No a tutaj wiemy tylko, no co to jest. No i fajnie, ale no.
No to tu mam wrażenie, że dostaniemy informację tylko o tym, co jest naprzeciwko nas.
Aha, no chyba, że tak. No okej, to look out chyba to ma trochę lepiej rozwiązane.
Czy właściwie informacji o tym, gdzie skierujemy kamerę, tak?
No bo wiadomo.
Możemy sobie tą kamerą machnąć w prawo i w jej obiektywie pojawi się,
tak jak u mnie na przykład, u mnie szklanka, a właściwie kubek z kawą
stoi sobie po prawej stronie, po mojej prawej ręce.
No i skierowałem na niego kamerę, no to on powiedział, że to jest to, tak?
Natomiast zastanawiam się, jakby to było, jeżeli chodzi o jakieś takie obiekty dalsze.
No i czasem te opisy, powiedziałbym szczerze, są dość niepokojące,
bo ja dziś na przykład w łazience, robiąc zbliżenie na kabinę prysznicową,
to usłyszałem jakiś opis w rodzaju tonięcie albo tonie, coś tego typu, no.
To tak niekoniecznie pozytywny opis i zdecydowanie niezgodny z prawdą,
bo nawet woda się nie lała z tego prysznica.
Byś miał pić też?
Nie, właśnie nic tam nie było.
Brodzik suchy?
Brodzik suchy, tak. Brodzik był suchy, a kocią kubek to opisał jako miskę.
No.
No cóż, no ale już nie wspomnę nawet o tym, że Seeing AI też ma podobny tryb,
tylko że wspomagany lidarem i tam już nawet dostaniemy dość konkretne informacje
o odległości od danego obiektu, także, no nie wiem, domyślam się,
że to może działa inaczej na tych okularach Envision Glasses, ale…
Być może tak.
Jutro się może dowiemy więcej, bo jutro też Envision organizuje webinarium,
na którym będą te nowe rzeczy, bo to nie będzie jedyna nowość,
zarówno w aplikacji, jak i w okularach, i będą te nowe rzeczy tam ponoć wyjaśnione.
Postaram się wziąć w nim udział, to może będę w stanie coś opowiedzieć więcej
w przyszłym tygodniu.
No to miejmy nadzieję, że rzeczywiście tak będzie,
że coś jeszcze nam ciekawego zaprezentują, a tymczasem odbieramy kolejne połączenie,
odbieramy kolejny telefon, tym razem Wojtek jest z nami, witaj.
Cześć, cześć, o, widzę, że jestem w książce adresowej, fajnie,
nie jestem anonimowym słuchaczem, cieszę się, ale cieszę się,
że też inni mogą mieć taką możliwość, żeby być anonimowi, jeśli tego chcą
i nic złego nie robią.
Jak będą grzeczni, to jak najbardziej.
Tak jest, tak jest. No, co do tego tonięcia, wydaje mi się, że to jest tłumaczenie maszynowe.
Sing. Zlew może zobaczył.
Ja się zastanawiałem, po które angielskie słowo chodzi.
I drown mi się z niczym nie kojarzyło, a ty przyszedłeś i podpowiedziałeś sing.
No, tak.
Dzięki.
Uwielbiam się tym bawić.
We are thinking about it.
Otóż to.
No, ale teraz będę się jeszcze więcej bawił, bo jedna z moich świetnych studentek
będzie pisała pracę o tłumaczeniu maszynowym form niebinarnych.
Już jest ciekawie, tak jak żeśmy się bawili na seminarium.
Wow.
Ja tą pracę chcę.
To jest ciekawe, bo ja brałem udział.
Wiesz co, jest po hiszpańsku, więc chętnie przekażę, bo wiem, że się uczysz.
O, no to nawet takie już newsy krążą.
To jest ciekawe, bo przy okazji się nowych słów jakichś nauczę o ejajach na przykład.
Tak, bo nawet mówiąc o pozaejajowym kontekście, to odnoszę wrażenie,
patrząc po dyskusjach internetowych, przy czym Reddit to jest prawdopodobnie
średnia wyrocznia czegokolwiek, bo czasem mam wrażenie, że tam jakość dyskusji równo leci.
Ale jest ciężko znaleźć jakiś konsensus, jak takie formy w ogóle wprowadzić
w języku polskim. Tak że jestem bardzo ciekaw, co wam z tego wyjdzie.
Ona jest, że tak powiem, well-versed w tym. Bardzo się płynnie w tym porusza
i po prostu zna się. To jest dla mnie nieustanna skarbnica wiedzy ta osoba
i bardzo się cieszę, że z nią współpracuję już od kilku lat.
Ale dzwonię do was, żeby powiedzieć o czymś, co już było dawno temu
kilka tyfno przeglądów temu. Zadzwonił Bartek i opowiadał o temacie
obozu koncentracyjnego Stutthof i tam, że próbują dostępność robić w tym obozie.
Ja chciałem się podzielić naszą wizytą sprzed wielu lat, sprzed pięciu lat,
wizytą w tym obozie Stutthof, ale może komuś to się przyda,
jeżeli chodzi o załatwianie tego typu spraw. Taka historia z morałem.
Otóż byliśmy tam, okazało się, że jesteśmy tam dosłownie dwie stacje,
bo tam jest taka kolejka wąskotorowa, bardzo miła i byliśmy tam,
dwie stacje stamtąd mieszkaliśmy. No to oczywiście żadnych tam hamstw, prawda?
Nie to, że przychodzimy i dawaj, tylko zadzwoniłem grzecznie,
powiedziałem, że jesteśmy dwie osoby niewidome. Czy możecie nam kogoś załatwić,
żeby nam po prostu pokazał, że to jest na pewno duża przestrzeń,
gdzie można dotknąć, czego nie można dotknąć. No pani była bardzo miła,
ale powiedziała, że ona niestety nic nie może zrobić, żebym zadzwonił,
że tu zapyta się przełożonych, zapytała się. Nic nie da się zrobić,
niestety możemy sobie kupić tylko przewodnika. No ale powiedziałem,
że bilety to chętnie kupimy, jakie by trzeba było, ale przewodnik,
no to nam nie jest potrzebny, bo nie potrzebujemy słuchać historii,
tylko potrzebujemy, żeby ktoś nas tam doprowadził do tych konkretnych miejsc
na tej dużej przestrzeni. No nie, to się nie da zrobić, ale wiecie,
co mi przyszło do głowy? Prosta sprawa, zapytałem się dobrze,
a kto jest instytucją nadzorującą? No i okazało się, że Ministerstwo Kultury
i Dziedzictwa Narodowego, czy tam czegoś innego, już nieważne.
No to z tą informacją zadzwoniłem. Jeden telefon w Warszawie,
z jednego przyłączyli mnie na drugi, z drugiego na trzeci.
Aż w końcu dotarłem do pani, która powiedziała, że dyrektor tej pracówki
jest osobą jej znaną, że to jest bardzo rozsądny facet,
że to na pewno tak nie jest, że ona zadzwoni, żebym jej dał numer.
Dziesięć minut później dzwoni do mnie ten dyrektor i mówi,
proszę państwa, kiedy chcecie, pani z działu edukacji czeka,
zapraszamy. No i tam ustaliliśmy, i to było dobre, bo gdybyśmy zamówili
nawet tego przewodnika, to on by nam niewiele pokazał, bo tam wszystko
było za pachołkami. I to było fajne, i może czasem warto takie eskalacje,
że tak powiem, robić, bo to może też im dało coś do myślenia.
Oni tam mieli jakieś materiały w Brajlu, ale no to co to jest za przyjemność
stać przed muzeum i czytać, nie wiem, 50 stron w Brajlu, czy 20,
bo to takie ilości tam…
No nie po to się idzie do muzeum, tak?
No, a tam rzeczywiście było po prostu pusto, duże przestrzenie,
więc w żadnym wypadku byśmy się tam sami nie odnaleźli.
Właśnie swoją drogą, no to ta pani nam po prostu pokazała takie rzeczy,
których nigdy żaden przewodnik by nie odważył się nam tego odsłonić,
no bo na przykład tam ścianę komina piecu krematoryjnego.
No to nikt na pewno spoza pracowników muzeum by tego absolutnie nam nie pokazał.
Ale cieszę się, że z tym Stutthof jakoś to idzie ku dobremu,
że coś tam jest.
Mam wrażenie, żeśmy przetarli szlak tym telefonem.
No to ja ci Wojtku powiem, że ja miałem podobne doświadczenie,
może nie aż tak wysoko, że doszliśmy, bo to też bardziej,
tutaj bardziej moja historia to jest życzliwość ludzka pracowników,
ale będąc ostatnio w Atenach próbowałem się dostać na Akropol
i Akropol reklamuje się nawet tym, że po angielsku nawet gdzieś artykuły
znalazłem, że dostępność, że wprowadzili, że specjalna ścieżka
prowadzenia niewidomych, że przewodnik audio rozszerzony po angielsku
i po grecku, że jakieś brailowskie tablice tyflograficzne,
cuda na kiju i koleżanka, Greczynka zadzwoniła, bo najlepiej tam po grecku
pewne sprawy załatwiać, zapytała.
Kilka osób było przepytanych zarówno telefonicznie, jak i na miejscu
i odpowiedź była w stylu, no my słyszeliśmy, że coś jest,
że nie jesteśmy Państwu w stanie pomóc, gdzie dokładnie się ta trasa zaczyna,
gdzie te tablice są i tak dalej, więc weszliśmy zupełnie tak na przysłowiową pałę
z koleżanką widzącą i poszliśmy tą tradycyjną trasą zwiedzania
i trafiliśmy na gościa, który pracował po prostu w bramie samej tej świątyni
na Akropolu, tej największej tam. I tak jak żaden turysta nie wolno było
tu i było napisane tam po grecku, po angielsku, proszę nie dotykać,
tak nam było wolno dotknąć tych kolumn, tych słynnych kolumn, które tam,
te doryckie, korynckie, jońskie, mogliśmy ich podotykać i sobie je zbadać
organoleptycznie, gdzie jak inni turyści to widzieli i zaczęli też dotykać,
to gość zaczął wołać za nimi, że państwo, moi drodzy, nie wolno,
proszę nie robić to, ja to robię dla niewidomych, to są niewidomi,
oni inaczej nie mogą, państwo nie. No i dotknęliśmy, po czym okazało się,
że tak naprawdę… Aha i dostaliśmy na koniec też brajlowskie materiały,
mapkę tego Akropolu, podpisaną z jakichś przyczyn, wiadomo z jakich,
po grecku, więc mam kawałek greckiego brajla teraz w domu,
który jest bardzo ciekawy. No i taki też dokument, czy powiedzmy
taką mini książeczkę o tym Akropolu po angielsku z jakimiś opisami
też w brajlu, po czym się okazało, że repliki tych kolumn
oczywiście w masywnym pomniejszeniu są dostępne w Muzeum Dotykowym
Tactile Museum w Atenach, które ma, które jest po prostu takim jednym
z niewielu muzeów w Europie, które ma repliki różnych rzeźb właśnie
ze znanych muzeów greckich i tych kolumn i masek teatralnych
i wielu innych rzeczy. Zrobione te repliki są specjalnie właśnie,
żeby osoby niewidome mogły doświadczyć tej sztuki. No ale Grecja
to jest osobna opowieść na pewnie osobny w ogóle podcast,
bo to jest ciekawe doświadczenie.
To może właśnie kiedyś usłyszymy tę opowieść, bo ja jestem
bardzo zainteresowany, byłem tam jakoś na wiosnę, ale to służbowo,
a chętnie byśmy się wybrali tak już niesłużbowo albo mniej służbowo,
żeby coś rzeczywiście zwiedzić. No kluczem rzeczywiście jest tutaj
to złapanie tego pracownika, no bo ona jak już dostała nakaz,
że ma to zrobić, no to już było właściwie wszystko świetnie
i spędziliśmy przemiłe dwie godziny. Z takich jeszcze rzeczy muzealnych
to mogę polecić, byliśmy w Muzeum Latarni Morskich, w Parku Miniatur
Latarni Morskich w Niechorzu. Strasznie miła, sympatyczna, młoda,
chyba 18-letnia dziewczyna nas uprowadzała. Bardzo dużo takiej wiedzy,
ale przede wszystkim właśnie takiej otwartości. No to właśnie to jest
to szczęście, że trafisz na kogoś fajnego i jest świetnie.
I właśnie nie było problemu, że tu państwo sobie coś zrobicie,
że tu nie wchodzicie, coś. No to się niestety często zdarza
w dalszym ciągu. Także no fajnie, że coś się dzieje i trzymajmy kciuki
za to, żeby się działo więcej.
To skoro jesteśmy już przy dostępnych muzeach, ja wiem, że przeciągam
strasznie temat, wyszedł w ogóle od czego innego, ale chcę się tym podzielić,
bo to było bardzo fajne. Oglądałem ostatnio, byłem w ramach
też obowiązków troszkę służbowych w budynku Parlamentu Austriackiego.
Jest to nowo otwarty, odnowiony budynek, chyba rok temu skończyli remont.
I są oczywiście tam tablice takie tyflograficzne, w ogóle tyflografiki
zrobione w taki sposób, że tyflografika to jest cały jakby taki stół
postawiony gdzieś tam w tym centrum dla zwiedzających, więc można podejść
do niego i tak sobie tą tyflografikę dotknąć. To jest cały taki stojący stół
z szufladką, którą się wysuwa i ta szufladka wysunięta to jest kolejny
etap, kolejne piętro rozpisane w formie tyflografiki. I tam są też kody QR
zaznaczone w sposób dotykowy, więc żeby zeskanować telefonem
i coś tam doczytać. Ale to już pomijając to, to jest fajne,
ale najlepsze jest to, że tam jest cała taka sala poświęcona parlamentom
różnych państw na świecie i to nie było robione z myślą o niewidomych,
tak per se, więc niektóre z tych modeli są bardzo wysoko,
ale są dotykowe modele takie bardzo w miniaturze parlamentów różnych państw,
alfabetycznie posortowane od tam Andory i jakiejś tam Armenii, Austrii,
Australii, Azerbejdżan i tak dalej, Bośnia-Hercegowina, która wygląda
jak głośnik, jak taka kolumna, taki sub-subwoofer, czyli taki
prostokątna taka bryła, pudełeczko, po środku taka okrągła kopułka.
Bardzo fajnie to wygląda, obok Polski, która ma charakterystyczne takie
dwie wieże wystające też jest, Pakistan, który wygląda jak w kształcie
krzyża w ogóle, budynek parlamentu pakistańskiego.
No niektóre rzeczy niestety były za wysoko, nie dało się dosięgnąć,
ale zasadniczo bardzo fajny pomysł, bardzo mi się to podobało.
Ciekawe, czy będą robili update’y jak się spali jakiś parlament,
bo to się zdarza w niektórych krajach dość często nawet, że się spali
taki budynek.
Trzeba będzie zobaczyć, trzeba by, na szczęście to są takie malutkie,
więc to nie jest, tak mi się wydaje przynajmniej dużo roboty,
bo to jest chyba druk 3D. Ten największy model, czyli Parlament Austriacki
oczywiście również jest w hali głównej, ale no to jest Parlament 1 Austriacki.
Skoro już tak gadamy, to Parlament Austriacki wzorowany jest
na świątyniach greckich. Przed wejściem jest figura Pallas,
dziewicy Ateny i w ogóle gdzieś tam w środku też jakieś figury Heraklesa,
kolumny również nawiązujące do kolumn Akropolu.
Także gdzieś to wszystko się łączy.
Tak, ja jeszcze pozwolę sobie tylko zwrócić uwagę na komentarze,
które opublikowałem na Facebooku a propos właśnie kwestii kulturalnych,
bo przed chwilą dostałem takie informacje z Nowego Teatru.
Kilka sztuk, jest ten komentarz na Facebooku, tam są linki.
Jeżeli będziecie mieli przestrzeń na to, to można to też odczytać.
Nie same linki oczywiście, ale terminy, bo tam jeden jest z 28 października,
więc to już pewnie nie opublikuje się ten odcinek w czasie,
żeby się załapać na tę sztukę.
Ale wszystkich chętnych też odsyłam do tego komentarza.
Także to jest tyle z rzeczy innych.
Jeszcze a propos tej sztucznej inteligencji, ja się pozwolę do ciebie odezwać,
Paulino, bo ty na pewno masz bardzo dużą wiedzę na ten temat,
a mnie jej po prostu brakuje.
A rzeczy, które tutaj poruszają, poruszałem jakiś czas temu,
no to Interface Audio, ten Behringer, no słuchajcie, to już jest epopeja.
Naprawili po trzech tygodniach i przychodzę na pewniaka na zajęcia we wtorek,
że się podłączę, zrobię, znowu nie działa.
No więc oni twierdzą, że są jakieś problemy w komunikacji,
ale co to są za problemy, to mi nie potrafili wyjaśnić.
No tak to jest z podwykonawcami, których się wynajmuję.
To a propos konferencji i różnych mityngów,
czy to jest jakiś powszechny i znany błąd,
że kiedy mam zdublowany obraz, że on idzie i na moim ekranie i na rzutniku
i jednocześnie chcę go udostępnić na Zoomie,
to że się cały Zoom wykrzacza?
Ja nic takiego nie znam, takiego błędu.
Ja wczoraj doświadczyłem i nie mam pojęcia, co zrobiłem źle.
Ja przeważnie korzystam z dużego i małego monitora,
więc to non-stop by mi się działo, bo mam jakby mirror,
mam tego obrazu i to zarówno na Macu, jak i na PeCecie kiedyś,
jak pracowałem, to nigdy coś takiego mi się nie zdarzyło,
żebym się Zoom wykrzaczał przy tym.
Natomiast inna rzecz mi się zdarzyła i też wysoce niepokojąca
i też szczerze powiedziawszy o tym, to może będziecie wiedzieli,
co tutaj jest winne.
Mam dwa mikrofony i przełącznik w audio hijacku,
żeby tam z jednego na drugi się szybko przełączyć.
Wrzucam to przez kabel wirtualny na Zuma
i wszystko działa pięknie na oryginalnym dźwięku,
ale co pewien czas on robi takie psz, psz, psz,
takie jakby w połowie mnie nie słychać, a w połowie słychać.
Czy to są te algorytmy Zuma, bo ja tam mam to
echo cancellation, mam tę redukcję echa.
Czy to jest to, czy co? O co chodzi kurczemu?
Wiesz co, być może tak, a próbowałeś to wyłączyć i sprawdzić.
Czy wtedy?
No niestety to jest błąd, który dopiero co odkryłem,
więc będę musiał to zrobić chyba.
Niestety z moich obserwacji czasem Zoom
to chyba w zależności od tego na jakim systemie
i w jakiej konfiguracji, nawet jak ma wszystko powyłączane,
to on czasem coś tam sobie lubi samodzielnie jeszcze próbować wycinać.
Natomiast tak, takie algorytmy mogą coś takiego robić,
tak mi się wydaje, więc ja bym eksperymentował w ogóle
z powyłączaniem wszystkiego, co się tylko da
tych wszelkiego rodzaju ulepszeń i sprawdził wtedy.
No to jest jakiś krok, trochę się go boję,
no bo to jest jednak zwrotka, mam to na głośniki,
ktoś mi zacznie mówić, no to może ten,
ale to jest jakaś idea.
No nic, to super, to bardzo wam dziękuję za uwagę
i ten czas poświęcony i życzę miłej audycji,
żebyście też skończyli w miarę wcześniej, żeby się wyspać można było,
bo jutro też Dzień Owoczy przecież.
Ja mam jutro wolne, bo w Austrii jest święta,
ale nie, też fajnie będzie się wyspać.
To wesołych świąt.
Dzięki Wojtku za telefon, pozdrawiamy cię serdecznie,
do usłyszenia.
Zaglądam na Whatsappa, bo tu mamy kilka różnych,
m.in. też jest wiadomość tekstowa od Piotra,
aktualizacje Watcha, przygotujcie się,
że po aktualizacji do WatchOS 10.1
na początku zegarek będzie chodził bardzo wolno.
Mój pory starcie leciutko przyspieszył
i głównie chodzi o przeglądanie za pomocą voice-overa.
Taka uwaga jest od Piotra.
Tu do nas różne rzeczy piszecie też
i nagrywacie wiadomości.
Teraz sobie przejdę do tych wiadomości dźwiękowych,
które do nas jeszcze nadsyłacie.
Michał do nas nagrał wiadomość,
więc teraz posłuchajmy wiadomości od Michała.
Dobry wieczór, Michał Kasperczak.
W nawiązaniu do muzeów,
o których przed chwileczką tutaj była mowa,
ja chciałbym się podzielić informacją,
może nie tyle informacją,
ale mimi doświadczeniami zeszłorocznymi,
kiedy to byłem w Warszawie w Apple Museum.
Apple Museum, bo tak to się nazywa,
to jest instytucja zupełnie prywatna,
ona mieści się w niedawno otwartej fabryce Norblina
na Woli już chyba,
mówię już, bo nie pamiętam,
no tak, to będzie chyba już Wola.
Byłem bardzo zadowolony z wizyty,
to znaczy pisałem do nich wcześniej maile,
na które mi nie odpowiedzieli,
jakoś tam telefony też nie bardzo,
bo nie pamiętam, czy ktoś nie odebrał,
coś tak jakoś nie mogliśmy się skontaktować.
Ja tam byłem z koleżanką rok temu
i kiedy zorientowali się,
bo w ogóle tam są dość drogie bilety,
więc nie wiem, jakie teraz są bilety,
40 chyba złotych one kosztowały,
ale od razu nam dali, nie pamiętam,
czy dla mnie połowę, czy dla przewodnika,
jakoś darmowo, jakoś tak bardzo lajtowo,
bym powiedział, i tam jest tak,
że większość rzeczy jest za gablotami, niestety.
Ale od razu dali nam dwóch,
znaczy dali, sami jakby nam powiedzieli,
że to wszystko, co będą mogli, mi pokażą.
Wzięła mnie taka jakaś ekspresyjna pod rękę,
jakaś taka ekspresyjna, no być może dla kogoś
zbyt ekspresyjna, dla mnie chyba nie,
no ale taka dość ekspresyjna przewodniczka,
która mową nie to zaczęła mnie ciągnąć,
bo to by było brzydkie, ale tak dość ostro
mnie wzięła pod rękę i dynamicznie zaczęła ze mną
po tym muzeum iść, no to ja tu Panu wszystko pokażę.
I ten facet zaczął, tak mówię brzydko ten facet,
bo nie wiem w sumie, czy to był ten główny twórca,
czy jakiś taki bardzo obeznany,
ale rzeczywiście obeznany pracownik
tego muzeum, ale zaczął otwierać po kolei
wszystkie gabloty. I właściwie skończyło się tym,
że przez półtora godziny pokazali mi
wszystko właściwie, co mogli.
To nie było takie sobie oprowadzanie, to były takie
aplowskie prawie że warsztaty edukacyjne,
gdzie Pan pokazywał mi, ta dziewczyna
pokazywała mi takie to, co gdzieś tam bardziej było
takie złożone w całości, czyli jakieś stare komputery,
stare urządzenia około aplowe,
bo tego sporo było takie z początku lat 80.,
z końca lat 70. jeszcze. Ja w tej chwili
nie przytoczę, co to dokładnie były za urządzenia,
jakie to były modele, bo po prostu nie pamiętam, aż tak historii Apple
nie znam. A Pan mi potem
przyniósł jakieś takie zagadki, co to jest.
I pokazywał jakieś układy rozwalone,
otwarte jakieś, nie wiem, modemy
czy inne prototypy urządzeń Apple.
I tak właściwie, no mogliśmy sobie
pogadać, pooglądać wszystko. Tam za dużo
nie było ludzi, więc też nie było większego
problemu. Także szczególnie
osoby z Warszawy polecam.
Do tego Apple Museum warto iść. Pewnie jak się da,
to warto się wcześniej zapowiedzieć, no ale mówię,
my się nie zapowiedzieliśmy, a właściwie pokazali nam
wszystko bardzo ładnie, przy czym pewnie
lepiej jechać, iść tam w tygodniu,
bo no sobota, niedziela to są jakieś
albo wycieczki bardziej zorganizowane, albo po prostu więcej ludzi,
a w tygodniu to jest
pewnie dobrze. No a tam w ogóle blisko jest
też w fabryce Norblina salon
Banco Lufsen,
więc jeżeli kogoś interesują takie profesjonalne,
takie high-endowe, bo to nie chodzi o profesjonalizm
taki muzyczny, ale wysokiej klasy urządzenia audio
czy jakieś takie słuchawki czy sprzęty
za 30-40 tys. zł,
to można sobie tam też wejść,
połączyć się, odsłuchać i
no wiadomo, że taki salon to raczej tam większość
ludzi ogląda niż kupuje, taka jest prawda,
ale też pan, który tam jest sobie,
jak sądzę, z tego doskonale zdaje sprawę.
To tyle z mojej strony.
Pozdrawiam. Pozdrawiamy Cię Michale również,
dziękujemy za tę garść
ciekawych informacji. Tak, bardzo.
Ja się cieszę w ogóle, to jest przepiękna wiadomość,
że Muzeum Apple to warszawskie
daje dostęp do tych gablot i że tam ludzie rzeczywiście
chcą nas jakoś włączyć i jest opcja to zwiedzać,
bo przed Muzeum Polskim odpalone było już
lata temu Muzeum w Pradze, Apple
w czeskiej Pradze, nie warszawskiej
i my z naszym tu redakcyjnym kolegą Roberto Lombino
próbowaliśmy się swego czasu tam dostać i dostaliśmy informację,
że dla niewidomych to w sumie nic ciekawego tam nie będzie,
bo wszystko jest za gablotami, możemy Państwu puścić
film o Stevie Jobsie, no a to film to sobie Państwo
mogą też w domu obejrzeć i tak ogólnie
bardzo zostaliśmy potraktowani tak, że nie ma po co
tam przychodzić, więc fajnie wiedzieć, że Warszawa
staje na wysokości zadania. Piszecie do nas, dzwonicie
do nas, a właściwie też nagrywacie wiadomości
głosowe. Teraz mamy od Mileny wiadomość na Whatsappie.
Dobry wiekór, to znowu ja, Milena.
Powiem tylko jeszcze tak, jeżeli się ten dźwięk
ciszy, to ten przester owszem jest,
ale dużo mniejszy, to jest pierwsza sprawa.
Druga sprawa, no zobaczcie, ja spróbuję coś w internecie
poszukać na temat tego, jak można
ten dźwięk i w jakiej aplikacji idę
ogarnąć i postaram się to ogarnąć,
dam znać, jak tę sprawę rozwiązałam,
czy rozwiązałam. Pozdrawiam, miłego wieczoru.
Pozdrawiamy i daj znać,
czy udało się coś z tym zrobić, być może
dla tych, którzy korzystają również z Dela
będzie to jakąś wskazówką.
Mamy jeszcze komentarze,
więc teraz pozwolę sobie je odczytać.
Witold do nas napisał, dobry wieczór,
czy jest gdzieś jakaś dobra instrukcja, jak
kupić sobie nagrywarkę radia internetowego
w Fubarze na Windowsie, a jeśli takiej nie ma,
to czy mógłby ktoś napisać w Tyflo Świecie
albo nagrać podcasta?
Zastanawiam się, czy w ogóle Fubar
jest akurat najlepszym narzędziem do
robienia tego typu rzeczy.
Tak szczerze mówiąc.
Dać się da, w sensie, jak się uruchomi opcję konwersji,
to trzeba odpalić stream, on jest na playliście,
klikamy menu kontekstowe i tam jest konwerter.
Rzeczywiście ten konwerter trzeba sobie najpierw ustawić,
czyli tam wybrać, zwłaszcza jak chcemy w MP3,
to wskazać mu chyba Lejma, bo jak to zwykle bywa,
nie ma licencji, więc trzeba sobie Lejma dociągnąć.
Potem są te presety, czyli jaki bitrate,
jakie tam inne parametry, ale jest kilka gotowych.
Wybieramy to, klikamy OK i zasadniczo jest OK.
Interfejsowo wygląda to w taki sposób,
że to jest taka konwersja, która nigdy się nie kończy,
czyli mamy wywalone na wierzchu okno z opcją STOP
czy CANCEL CONVERSION, które nie znika,
więc w tym czasie Fubar jest zapchany,
nie możemy nic innego nim zrobić, o ile dobrze pamiętam.
No i po prostu trzeba kliknąć to STOP,
jak już nie chcemy nagrywać i tyle, ile się nagrało,
tyle zostanie nam zapisane tam, gdzie wcześniej
w czasie konfiguracji tego wszystkiego zadeklarowaliśmy.
No ale fakt, można by to kiedyś pokazać
w ramach czegoś.
Tak, natomiast ja się zastanawiam,
czy to jest najlepsze rozwiązanie do nagrywania,
bo po prostu tego nie da się zaprogramować.
Jeżeli ktoś na przykład chciałby mieć
jakieś takie zadanie, które coś takiego uruchomi,
to będzie problem.
Chyba, że da się to z linii poleceń wywołać,
ale nie wydaje mi się, żeby aż tak bardzo Fubar
na takie rzeczy pozwalał i tu zdecydowanie lepiej
użyć czegoś innego, co ma więcej tych przełączników
w linii COMAND, na przykład VLC albo
WGETA po prostu.
Ja powiem szczerze, ja na przykład
radia internetowe często sobie
po prostu nagrywam WGETEM.
No widzisz, no można. Pewnie dałoby się jakieś makro
zrobić, które by naciskało skróty klawiszowe,
natomiast chyba nie o to też w tym chodzi.
Dokładnie, więc no ale to
kilka takich opcji podaliśmy, ale fakt, faktem można by było
jakąś audycję na ten temat zrobić, coś pokazać,
bo myślę, że warto, no ta pina przede wszystkim też
warto przypomnieć, to jest co prawda płatna
aplikacja. Zdaje się, że w darmowej wersji
nie da się nagrywać,
a przynajmniej nie da się zaprogramować
nagrywania stacji radiowych,
natomiast w płatnej wersji ta pina
jak najbardziej to jest możliwe.
Ja akurat tak się zastanawiam po prostu
na co pozwala ta darmowa wersja, bo mam płatną,
więc tak głośno myślę, ale
też jest to jakaś opcja.
Mamy jeszcze od Maćka wiadomość.
Cześć, nadsyłam pewnego newsa,
bardziej w ramach ciekawostki, a to ze względu po pierwsze
na to, iż liczba miejsc jest mocno ograniczona,
a po drugie pojawił się on w zeszły czwartek.
Poza tym, gdy odcinek pojawi się na stronie Tyflopodcastu,
wszelakie terminy już miną. Informacja przyszła do mnie
mailem od Reginy Mynarskiej,
niegdyś związanej z fundacją
a obecnie z Fundacją Pełni Kultury.
Zaproszenie na testy wirtualnej rzeczywistości
od firmy Accense.
Dzień dobry, poniżej przesyłam zaproszenie
do udziału w innowacyjnych testach.
Zaproszenie firmy Accense do udziału w testach
do doświadczenia VR
za ręczyny Propose Game
przy użyciu audiodeskrypcji.
Teatr imienia Juliusza Słowackiego
zorganizował wydarzenia w ramach
Kultura Futura, interdyscyplinarne
biennale sztuki
i techniki przyszłości.
W jego ramach prezentowane będą w październiku
i listopadzie prace VR.
Skrót pochodzi od nazwy angielskiej
Virtual Reality, czyli rzeczywistość wirtualna.
Serdecznie zapraszamy do przetestowania
dostępności jednej z prac, mianowicie
za ręczyny, do której przygotujemy audiodeskrypcję.
Testy będą przeprowadzane z użyciem
sprzętu do VR i wsparciem
w postaci narracji audiodeskrypcji na żywo.
Testy. W ramach testów przeprowadzimy
10 osób z niepełnosprawnością wzroku
przez scenariusz doświadczenia gry
za ręczyny. Testy te będą
realizowali doświadczenie
w goglach do VR
ze wsparciem audiodeskrypcji.
Gra nie posiada dodatkowych funkcji
dostępności. Naszym celem będzie sprawdzenie
wrażeń z doświadczenia, zebranie w formie ankiety
opinii użytkowników, w tym sugestii dotyczących
ich oczekiwań w przyszłości.
Testy powinny umożliwić sformułowanie ogólnych wniosków
dotyczących rozwoju dostępności VR
dla osób z niepełnosprawnością wzroku.
Dla kogo? Dla osób z niepełnosprawnością
wzroku chcących przetestować rozwiązanie VR
z audiodeskrypcją na żywo.
I kiedy? W dwóch terminach
27 października do wyboru następujące
godziny 15.30 lub 16.15
i 31 października do wyboru
następujące godziny 12.45 lub
13.30 lub jeszcze
1 godzina 14.15. Zgłoszenia
przyjmujemy mailowo i telefonicznie
zapisujemy na konkretną godzinę
co 45 minut. Miejsce testów
Małopolski Ogród Sztuki, Galeria Mos
przy ulicy Rajskiej 12 na poziomie
1. Teatr w Krakowie
PL i tu jest link
informacje dodatkowe. Każda osoba będzie korzystała
z gry indywidualnie w konkretnym terminie.
Przewidujemy, że test wraz z wypełnieniem
ankiety zajmie od godziny do 75
minut. Z każdym testerem
będziemy umawiali się na 15 minut
przed rozpoczęciem testu. W razie
potrzeby oferujemy asystę z przystanku
przy Teatrze Bagatela. Za przeprowadzenie
testów odpowiada firma Accents
za audiodeskrypcję Regina Mynarska
i Dawid Górny.
Udział w testach jest nieodpłatny. Firma Accents
przewiduje drobne upominki.
Pozdrawiamy Regina Mynarska
i Dawid Górny. I teraz szkoda
tylko, że
tutaj nie ma żadnej informacji
odnośnie telefonu czy maila
bo to by się myślę przydało
no ale jak sobie wejdziemy na teatrbagatela.pl
to też będzie można to znaleźć. Tak Paulino?
Myślę, że Regina się nie obrazi
jeśli podam jej maila skoro jest potrzebny.
Już go mówię.
Ale mam wrażenie, że
to jest… dobra to muszę sprawdzić
bo teraz go nie mam.
Dobrze. Już mam.
Regina Mynarska małpa gmail.com
Rozum. Czyli prosto.
Najprościej jak się tylko da.
Regina Mynarska małpa gmail.com
I jeszcze mamy tu komentarze.
Jak dla mnie w get może być
tylko jak gdzieś kiedyś czytałem konfiguracja była bardzo skomplikowana.
Szczerze powiedziawszy nie jest jakaś
specjalnie skomplikowana. Ja mam nawet taki plik
który pozwala na zapisywanie
jakiegoś konkretnego
strumienia i to dosyć
prosta składnia tego będzie.
Postaram się zamieścić też w komentarzu
pod audycją jaka to ma być konkretnie składnia.
Maciek napisał
domilene odnośnie airpodsów
niestety przez jakiś czas ustawienia słuchawek są zachowywane
i działają według tego co sobie ustalisz
jednak na skutek błędu wykonywany jest ich reset
wskutek którego działanie polegające na ściskaniu nóżek
słuchawek wraca do ustawień domyślnych.
Niestety jest to błąd na który jak na razie nie można nic poradzić
i tu trzeba poczekać na którąś z przyszłych
aktualizacji rozwiązujących ten problem.
Wspominałem swego czasu iż mi co jakiś czas
pojawia się samouczek wprowadzający
do nowych funkcji airpodsów w tym włączanie
wyłączanie za pomocą ich wyciszenia
mikrofonu i rozłączania
połączenia stąd wniosek że co jakiś czas
ustawienia są resetowane co objawia się tym
czym mówisz czyli co jakiś czas twoje ustawienia
czyli przez jakiś czas twoje ustawienia działają
a po pewnym czasie przestają.
Jeszcze komentarz od Maćka ja się zapisałem na te
testy gry zobaczymy jak to będzie
ciekaw jestem wrażeń być może w kolejnym odcinku
tyflo przeglądu się podzielę z postrzeżeniami
a to będziemy oczekiwać się z niecierpliwością
Maćku. Ty się Paulinu wybierasz
na takie testy.
Miałam się wpisywać ale chyba mi termin
nie spasuje bo są konkretne
sloty godzinowe i akurat w tych
slotach nie mogę. No to Maćku liczymy na ciebie
i będziemy wdzięczni
za jakieś refleksje Paulino
ale mikrofonu wyłączać nie musisz bo teraz
twoja kolej kącik newsów sztucznie inteligentnych
to co tam nowego w świecie AI
dokładnie wam
powiem 7 dorodnych newsów
znaczy przygotowałam szczęśliwa siódemka
pierwszy taki
nie do końca news ale też coś
o czym uważam że warto byłoby powiedzieć
ponieważ kupiłam sobie
czata GPT plus i chciałabym omówić
to co on w zasadzie daje
czy warto go kupić itd. znaczy czy warto to wam nie powiem
w zależności od tego jakie tam wasze są zastosowania
i potrzeby ale no cóż kupiłam go już
tak no nie wiem ile 2 tygodnie temu
może trochę dłużej
w każdym razie na dawno mnie tutaj nie było więc też nie miałam
zbytnio kiedy mówić o tych swoich coraz to kolejnych
odkryciach. Natomiast
co nam wchodzi w skład tego
tego czata GPT plus głównie
czat GPT 4 czyli bardziej
inteligentny bardziej wyuczony
bardziej spełniający nasze instrukcje
model
bardziej no ładnie mówiąc po polsku
bardziej kreatywny no generalnie
duże ulepszenia względem 3,5
no więc
to jest taka podstawowa rzecz
druga rzecz co nam wchodzi
to wchodzi nam oczywiście GPT 4V
czyli model przetwarzający
zdjęcia
co już znamy trochę
z OpenAI znaczy z BeMyAI
więc ci ludzie którzy go mają to
nie aż tak może tego potrzebują ale ci którzy nie mają
no to jednak
mogą docenić szczególnie że
znaczy ja nie wiem bo nie testowałam
BeMyAI bo nie mam ale mam wrażenie że jeżeli się wyśle
zdjęcie no to on się głowi nad
tym żeby wysłać nam po angielsku
jakieś podsumowanie
i zanim on się nagłowi no to musimy poczekać żeby potem zadać pytanie
na przykład po polsku żeby nam podsumowało natomiast ja
to znaczy to już jest nieaktualne
on już po polsku opisuje te zdjęcia od razu
od razu tak? Tak. A to okej
to mi jedna przywaga zniknęła bo
ja tak na ogół w związku z tym że mam custom
instructions po polsku no to wystarczy że wyśle
pytajnik do czata i
po prostu wcisnę enter
i mi się generuje odpowiedź już
od razu po polsku
kolejna rzecz która jest fajna
to jest advanced data analysis
i to jest
jeden z takich no sub
to znaczy to jest
jeden z tych tak zwanych eksperymentów
jeden z trybów w którym możemy używać czata
i ten advanced data analysis pozwala nam na tworzenie
i uruchamianie kodu w Pythonie
natomiast ma też kilka innych
opcji które ja bardzo lubię
na przykład w związku z tym że oni mają tam
zainstalowane w tym
ich workspacie
narzędzia do tworzenia chociażby prezentacji
czy innych dokumentów właśnie poprzez kod
Pythonowski no to ja sobie wrzucam tekst
mówię mu że tam weź mi stwórz prezentację
tylko nie taką gołą żeby tam były jakieś
designerskie fajne rzeczy no to on mi ją robi
i nie muszę się męczyć z formatowaniem
wiem że tam wszystko się mieści czcionka jest ok
jakieś tam właśnie też
kształty tło coś tego wszystko jest fajnie
to czego troszkę się boję i czego
chyba nawet nie mogę zrobić na obecny moment
to są
to jest umieszczanie obrazków
znaczy no jakieś tam zdjęć przy slajdach
bo wtedy kiedy to próbowałam
chociaż nie wiem czy nie próbowałam tego z jakąś wtyczką zrobić
to po prostu on mi ucinał tekst
więc nie cały mój tekst był na slajdzie a jednak
tekst jest dla mnie najważniejszy po pierwsze dlatego że
ja się tym tekstem wspieram tak jeżeli ja mam jakieś punkty
wypisane na prezentacji to ja chcę żeby one były
ponieważ one są zarówno dla mnie
jak i dla moich słuchaczy
natomiast no samo to żeby po prostu
zrobić sobie prezentację i nie męczyć się z formatowaniem jest
według mnie już dużą wartością dodaną
a w jaki sposób on robi te prezentacje on potem wypluwa
powerpointa czy to jest
mieli jakiś kod
hash import tam coś tam utils
pptx utils czy jak to się tam nazywa
mieli sobie mieli tam jest przy takim przyciskie show work
i wtedy się wyświetla ten kod który on tam sobie generuje
wykonuje kod daje mi pptxa
jako link pobieram sobie link i mam
i mam prezentację
i to już naprawdę w produkcji używam tego
teraz ale nikt się nie jakoś
znaczy no nie wiem może się spostrzegł ale
żadnej negatywnej opinii nie otrzymałam
i to jest tak kolejna rzecz
która jest też spoko
to są voice conversations
dostajemy to w aplikacji na androidę i na iosa
i to jest możliwość rozmawiania z
naszym modelem czata gpt
w naszym języku jest dostępnych
pięć różnych głosów te głosy w sumie mogłabym nawet
pokazać jak to wygląda jak to działa
czy czy nie
no to pokaż jak masz możliwość to pewnie że tak
no to już
sobie w sumie nie przygotowałam a mogłam tylko że kwestia jest
jeszcze tego typu niestety
że żeby na androidzie
włączyć ten
no jak to się nazywa
voice conversation
zarówno na talkbacku jak i na komentarzy żeby nie było
testowałam to trzeba wyłączyć
w sensie znaleźć przycisk gdzie on jest
on jest na górnym prawym rogu ekranu
wyłączyć tam talkbacka
zawiesić komentary no tak zrobić
żeby po prostu on nie przechwytywał
naszych kliknięć kliknąć po prostu raz
tak jakbyśmy o
i wznowić pracę czytnika ekranowego w każdym innym
przypadku czy to kliknij bezpośrednio w komentary
czy to kliknięcie dwoma palcami na kontrolkę
czy to zwykłe kliknięcie kończy się crashem
całego całej aplikacji
no więc lecimy
ja mam tu wybrany jeden głos ale też
będę mogła zaraz wejść do ustawy nie pokazać pozostały
udało mi się
cześć czaci gpt opowiedz
jaka jest pogoda w warszawie
przepraszam ale nie mam dostępu do bieżących
danych o pogodzie
ja też mogę ci opowiedzieć jak sprawdzić prognozę pogody
w różny sposób jak cię mogę dalej wspomóc
do jakiego do jakiej daty są aktualizowane
twoje dane
a moje dane są aktualne do stycznia
dwutysięcznego dwudziestego drugiego roku
nie mogę dostarczyć informacji po tej dacie
powiedz ile to jest trzysta tysięcy
plus milion osiemnaście tysięcy trzy
suma trzysta tysięcy i miliona osiemnaście tysięcy
trzy wynosi milion trzysta osiemnaście
tysięcy trzy pewność sto procent
czy mogę ci jeszcze pomóc
brawo dzięki to już tyle ode mnie
nie ma za co
no to ja wam powiem
trochę dziwny ten język taki akcent
ale tak już intonuje
to jest taki pan prezenter
tak jakbyś sobie z kimś rozmawiała rzeczywiście
on zachowuje taką niepewność w głosie
to jest ich osobny model
tylko że oni powiedzieli że oni nie chcą
wydawać swojego modelu do przetwarzania głosów
dlatego że oni się boją
o deepfake i o podszywanie i tak dalej
zresztą gdyby to był Eleven Laps to on by nie robił
czegoś takiego
głos Grzegorza dzisiaj był bardzo
taki cioski
z drugiej strony Eleven Laps trochę inaczej
odwzorowuje te nasze niepewności
nie byłabym w stanie tego ze sobą
pomylić
natomiast wam powiem że to się poprawiło
i w sumie nawet nie wiem kiedy
ale jeszcze niedawno było że na przykład
2022 rok to był czytany
on to bardzo jakoś niewyraźnie czytał
ale też jakiś czas temu jeszcze miał problemy
z cyframi napisanymi niesłownie
po polsku
tak to wygląda natomiast
wejdę sobie jeszcze w te ustawienia
i wam pokażę pozostałe głosy
one będą po angielsku
ale jak już widzieliście jak one brzmią po polsku
to mam nadzieję że
o voice
czasami to się też lubię
dobra no to to jest domyślne
to jest domyślne no i wszystkie są tak samo
z angielskiego jak ten mój
ja mam wrażenie że ten głos
jest jakby najniższej jakości
ja nie wiem czy to ma być taki ziomek
czy to ma być osoba niewinarna
jest taka opcja że to są głosy bezpłciowe
nie bezpłciowe przepraszam
albo uniwersalne płciowo w jakiś sposób
kontynuuj przepraszam że ci przerwałam
mówię że ostatnio dużo firm takie oferuje
to wszystko zechciałem powiedzieć
tak no i confirm oczywiście
i tyle
natomiast co ciekawe to w gpt plus
już teraz oficjalnie
taka informacja gdzieś wyczytałem
że gpt plus
gpt plus ma oficjalnie dostać
dostęp do internetu tak po prostu
on już ma dostęp do internetu w sensie ja już mam
no ale to jest wiesz to jest ciekawe że on nie był w stanie
ci na przykład podać pogody
bo ja nie zaznaczyłam odpowiedniego trybu
to jest jedno a drugie że tryby nie są dostępne
w konwersacjach głosowych
szkoda
chociaż w sumie sprawdzę jeszcze na szybko
żeby was nie kłamać
w stopniu czat
ja wybiorę sobie teraz
aha bo na telefonie są inne tryby
jest dalej 3 beta
web browsing beta
i tyle
dobra no to zrobimy ten web browsing
i zobaczymy co się tu stanie
w sumie jeszcze mogę sprawdzić później
czy to się dalej crashuje
ale już nie chcę teraz bo sobie wybrałam tryb
co wiesz
na temat obecnej wojny na Ukrainie jeżeli
twoje informacje nie sięgają do roku 2023
użyj wyszukiwania w internecie
szuka chyba
przepraszam ale nie mogę przeszukać internetu
moje informacje kończą się na styczniu
2022 roku i nie mogę dostać
najnowszych danych na temat sytuacji na Ukrainie
jeśli masz inne pytania lub potrzebujesz informacji
na temat wydarzeń do tego czasu chętnie
ci pomogę
bardzo miło, że to mówisz
z tym internetem coś jednak ja miałem okazję bawić się
tak po prostu tekstowo
przeglądaniem tego internetu i też mam wrażenie, że
przynajmniej jeszcze parę tygodni temu kiedy to było
eksperymentem a to nie było jeszcze tak oficjalnie wprowadzone
przez OpenAI, że on też nie zawsze
podawał aktualne informacje
natomiast to już były informacje bardzo bliskie
aktualnym na przykład kazałem mu powiedzieć
jaki jest najnowszy odcinek Tyflo podcastu to podał jeden wcześniej
okej
w sumie mogłabym to sprawdzić chociaż tak jak widzieliście dalej
webbrowsing jest oflagowany jako beta
z tym, że mogę to zrobić albo
pluginem do
wyszukiwania w Google albo właśnie tym ich webbrowsingiem
to znaczy wiesz Paulina myślę, że nie ma sensu teraz
przeprowadzać wiesz iluś tam eksperymentów może bardziej po prostu
powiedzieć co jeszcze może ten czat GBT
okej właśnie miałam do tego przejść
właśnie miałam do tego przejść bo w sumie to co nam ostatnio zostało
do omówienia to jest dla mnie wisienka
na torcie czyli właśnie pluginy
czyli wtyczki, które pomagają rozszerzyć funkcjonalność
czata GBT tych wtyczek jest
naprawdę zatrzęsienie mogę wam sprawdzić ile dokładnie
ale z 300 stron po 5 wtyczek
to było jeszcze niedawno
a to się cały czas rozszerza
nie no dobra
już nie będę sprawdzać
ale jest tego naprawdę sporo
i co tutaj mamy takiego najważnego
chociaż w sumie otworzę żeby listować te wtyczki, które ja mam
żeby o czymś fajnym nie zapomnieć
plugins
okej no i ja tutaj mam 18 wtyczek
zainstalowanych o nie wszystkich będę mówić
bo niektóre były po prostu dla hecy, dla testu albo coś w tym stylu
natomiast pierwsza rzecz AI search engine
czyli wtyczka, która pozwala nam przeszukiwać
google’a pod kątem danych
które po prostu napiszemy w prompcie
jest to szybsze niż szukanie bingiem
ale szukanie bingiem z kolei
już na etapie generowania
mówi nam co dokładnie klika
za czym szuka i tak dalej
w sensie to jest takie bardziej transparentne
natomiast tam jest po prostu using AI search engine
i czekamy aż dostaniemy wyniki
oczywiście źródła są podane
no ale tak no to możemy sobie śledzić co tam się dzieje
no i plus tej wtyczki jest też taki, że google
no lepiej działa niż bing przynajmniej w moich zastosowaniach
kolejna wtyczka to jest present it show me
to jest wtyczka do tworzenia prezentacji
ale w sumie bardziej niż ta wtyczka
przydał mi się ten advanced data analysis
więc to w sumie jest do wyinstalowania
mobitrix, kolejna wtyczka
to jest dodatek, który pozwala nam
szybko dostawać informacje na temat
telefonów, chyba w ogóle nawet urządzeń
jakiś elektroniczny, podejrzewam, że jakiś watcher
coś by też tam było
aczkolwiek chyba w opisie jest na temat telefonów
tylko w każdym razie
ja tego mobitrixa jakoś nie pokochałam
ponieważ zapytałam się go jakie telefony
z gniazdem mini jack zostały wydane
chyba w 1922 czy tam w 3 roku, nie pamiętam
no i na przykład powiedział mi
o samsungu galaxy, który tego jacka
na 100% nie ma, a nie powiedział mi
chociażby o Asusie Zenfone, więc jest to
niewyczerpujące i nierzetelne
no ale jakieś tam podejrzewam
mniej niszowe pytania
na nie mógłby znaleźć odpowiedź
więc też nawet myślę, że
ten zwykły
search engine by to zrobił lepiej
ale w sumie nie próbowałam
gamebox to jest po prostu wtyczka, którą zainstalowałam
typowo dla hecy, to jest coś jak playroom
tylko że single i z czatem gpt
jeżeli komuś
nie wiem
jeżeli komuś
nie odpowiada to co jest na playroomie
może tam troszkę jest innych gier w sumie
więc jeżeli ktoś by chciał potestować jakieś nowe
gry no to jest to
sposób, aczkolwiek mi to ostatnio
nie chciało działać, więc nie wiem czy to jest dalej
możliwe do użytku
exercise consulting to jest wtyczka
do
takiego poradnictwa siłowniowego
jeżeli byśmy chcieli sobie na przykład
no nie wiem, weź mi wymyśl taki półgodzinny
trening na mięśnie brzucha albo na
nie wiem, mięśnie ud czy cokolwiek
no to on tam próbuje coś
wymłodzić
tu są wtyczki dla hecy, ok, mixerbox kalendar
to jest wtyczka do integracji z naszym kalendarzem
google’owym
no i faktycznie
ta integracja działa, ale chyba nie na tyle
żeby tworzyć nowe wydarzenia, bardziej na tyle
żeby sprawdzać co tam w tym kalendarzu jest
i tak dalej
no może się to jakoś przydać
chociaż ja w sumie to tak zainstalowałam
stwierdziłam, że fajne, użyłam raz
żeby zweryfikować czy to działa i jakoś nie miałam czasu
i posiedzieć, może faktycznie by się dało
te wydarzenia tworzyć albo jakoś modyfikować
no bo w sumie to by się też mogło przydać
minigames, kolejna wtyczka
która służy do grania
ona już działała, tylko że
jakiś problem też był dla mnie
a, że
właśnie single, a ja myślałam, że to będzie multi
czat OCR to jest
to jest
czatowanie z OCR’em, czyli
wrzucamy sobie plik do OCR’owania
i później tam
czat dostaje
ten przeocerowany tekst, no i możemy
tym tekstem czatować
podobno wspiera pismo ręczne, ale ja próbowałam to pismo ręczne
żeby sprawdzić czy wspiera
i nie udało mi się, oczywiście to pismo było po polsku
więc może
z tym językiem po prostu jest jakiś problem, może po angielsku
na przykład działało, no ale w każdym razie
nie próbowałam jeszcze takiego zwykłego pisma drukowanego
więc może kiedyś jak spróbuję to się coś dowiem więcej
amazon
gift chooser to jest wtyczka
która pozwala nam
znaczy pozwala
ma nam ułatwić dobranie prezentu
pod jakąś osobę, no i żeby
ten prezent nam wybrać przeszukuje amazon
ale są też takie, które przeszukują tam chyba
zakupy googla, czy coś tam, jakieś inne platformy
sprzedażowe, no i jest tego
adwork.ai to jest
coś takiego, że możemy pytać się o dany produkt
i ta wtyczka będzie przeszukiwała
zakup, ten google
google shopping, czy jak to się tam nazywa
właśnie w poszukiwaniu informacji, cen
i tak dalej
shopping tools, nie pamiętam co to było
easy resume
to jest wtyczka do tworzenia cv
z użyciem czata gpt, on pewnie nam się tam będzie
jakoś przeprowadzał przez to krok po kroku, ale jeszcze nie wiem
bo nie testowałam
email by
nylas
to jest wtyczka do integracji z mailem
i w sumie co no
wtyczka może czytać treść maili
poruszać się po folderach, ale nie może
np. usuwać wiadomości, czy wysyłać nowych
ale np. jeżeli dostaniemy jakąś
wiadomość i powiemy
no weź tam zobacz ostatnią wiadomość w odebranych
i spróbuj jakoś odpowiedzieć na nią
no to gdzieś tam ta odpowiedź
zostanie stworzona, niestety wysłać będziemy już musieli
sami, ale to w sumie prawie tak jakbyśmy otworzyli tego maila
i przykleili stamtąd tą wiadomość
no ale cóż w sumie
miałam to usunąć jakoś zapomniałam
no tych wtyczek jest naprawdę od groma ja teraz
powiedziałam chyba o jakimś 1%
po prostu trzeba przejrzeć sobie te biblioteki i wybrać coś
dla siebie, czat gpt potrafi też
czytać pliki prawda potrafi też czytać
różne formaty
książek na przykład, że można sobie załadować
i sobie powiedzmy
odpytywać potem o różne rzeczy
ażkolwiek ja pozostaję wielką fanką
majeridera, bo mogę z całą biblioteką
czatować i no i cóż
ja na przykład mam wrażenie, że to co oferuje
czat gpt, bo też miałem okazję bawić się tą wersją
pro
mam wrażenie, że niestety
ale on jak mu nawet wczytamy jakąś książkę
to on udaje, że on ją przeczytał całą
a tak naprawdę przeczytał kilkanaście
albo kilkadziesiąt pierwszych stron i o rzeczy
które są gdzieś tam na końcu
no on twierdzi, że on tego nie przeczytał
on tego nie wie, więc
dla mnie ja nie mam jeszcze takiej 100% pewności
na przykład gdybym go pytał o wszystko
co dotyczy jakiegoś pliku, który tam wrzuciłem
a ten plik byłby naprawdę duży, to że te informacje bym otrzymał
takie wiarygodne
znaczy tam faktycznie jest jakiś limit, bo ostatnio wrzuciłam mu jakąś
książkę i
poprosiłam go, żeby mi przetłumaczył
no to on tak w sumie stwierdził, że po pierwsze
to nie widzi jej całej, a po drugie to w sumie
jakby to po kawałku, a no w sumie to nie
bo to by dużo czasu zajęło, no ale ja mu powiedziałam, że
przecież jest ten advanced data analysis
potłumacz sobie spokojnie, wyślij mi w kolejnym pliku
ja sobie poczekam, no to on stwierdził, ale nie
no jak to tak, no nie
no i? No i no po prostu prawdopodobnie tu chodzi
o to, żeby nie zużywać nadmiernej ilości
zasobów, ale no jest to
niewątpliwie przyszłość, a już i teraz
jeżeli nie szkoda nam tej tam powiedzmy stówki miesięcznie
bo to mniej więcej tyle kosztuje, prawda?
No to już można się pobawić
a dla tych wszystkich, którzy nie chcą płacić
no to jest ten zwykły czat GPT
w modelu tam 3.5, tak? Czy 3?
Tak, 3.5. I on już też naprawdę
potrafi całkiem sporo, a ja podejrzewam, że OpenAI
sukcesywnie będzie udostępniać
różne rzeczy w tej wersji darmowej. Tak, bo ja widzę, że oni mają taką
politykę, że jak nowy model wchodzi
do Pro, to stary
model wychodzi z Pro i to jest taka fajna
rotacja, natomiast jedna rzecz
o której jeszcze nie wspomniałam w ramach pluginów, bo tej wtyczki
nie mam, bo ją wyinstalowałam, ale jest
wtyczka, która integruje, w sensie ich jest kilka
są wtyczki, które integrują czat GPT z Notion.
Co to jest Notion? Pewnie
każdy wie, ale… Ja myślę, że bardzo mało osób
wie, co to jest Notion, zwłaszcza w naszych
w naszym środowisku, dlatego, że
różnie z jego dostępnością jest tego, z dostępnością
tego narzędzia. No właśnie i o tym troszkę chciałam wspomnieć, że Notion
to jest taka
baza wiedzy, tak? No taki centrum notatek,
baza wiedzy, taki po prostu
taka apka, która pozwala zespołom
łączyć całą dostępną wiedzę
w zespole na dany temat. Mamy tam jakieś nie wiem
foldery, tagi,
konkretne notatki, coś.
Natomiast Notion ma bardzo słabą
dostępność i ja marzę bezustannie
o jakimś kliencie, który będzie mi w stanie
tę dostępność poprawić, natomiast pomimo, że
API jakiś tam jest, no to nic się w temacie nie dzieje.
Bo śledzę też
GitHuba i patrzę, ale nic nie
widziałam ostatnio. Natomiast to, co jest
fajne, no to jest plugin do Notion
do czata GPT, tylko, że nie zdołałam
go niestety przetestować, dlatego, że żeby
móc to zrobić, to admin
workspace’u, czyli tej naszej konkretnej bazy
jednej z iluś, które możemy tam mieć
musi się na to zgodzić, a ja w sumie
mam tylko jeden workspace, więc
tylko jedną osobę mogłam o to spytać i ta osoba mi odmówiła.
No i cóż, póki
nie będę miała jakiegoś workspace’u, który jest wypełniony
jakąś treścią, to ja się nie dowiem, bo tam edycja
jest tak mało dostępna, że ja średnio jestem
w stanie cokolwiek zrobić.
Okej, no mogę próbować tam, nie wiem,
wpisać w notatniku i coś wklejać, ale w sumie jak mam się
męczyć, no to… No nie, Notion dla nas po prostu jest
bardzo słabo dostępny, zwłaszcza w edycji.
Jeżeli chodzi o czytanie, to już coś tam można,
ale to też nie jest
takie przyjemne. To nie jest jakieś niesamowite, w sensie
na przykład eksportować do PDF i otwierać
w przeglądarce i coś tam sobie czytać, no ale wtedy nie widzimy
zmian na bieżąco. Tak w sumie jest z resztą z edycją,
no nie wiem, mogę sobie przekopiować całe to, wrzucić
sobie w notatnika czy do Worda, no ale wtedy po pierwsze
rozwalam ludziom formatowanie całe
najpewniej, a po drugie, jeżeli ktoś pisze
razem ze mną, chociażby w drugim końcu
dokumentu, to rozwalam tej
osobie pracę, ponieważ jak będę wrzucać
to, co ja napisałam, no to będę wrzucać z całością,
czyli jakby
będę wrzucać stalą wersję.
Więc no, niestety
tego się zrobić
na ten moment nie da.
No i jeżeli coś będę miała, jakiś
workspace, który będę mogła testować, to damy znać.
Np. tych aplikacji jest kilka, tych
aplikacji, które mają integrację w addonach, więc
jeżeli jest coś niedostępnego i widzicie,
że nie ma nigdzie klienta, ani na GitHubie,
ani na, po prostu w Google, że nie ma
nic nieoficjalnego, a macie
chatę GPT+, to sprawdźcie, jakie tam są addony
i na co one pozwalają, bo, znaczy te
pluginy, bo to nas może wyratować
z różnych takich opresji.
No, czego nam, jak i
sobie samej życzę.
No, wam, znaczy. Kolejny news,
bo tamten to był, no, nadreprezentatywnie
dorodny.
Aplikacja LM Studio, czyli coś,
co odkryłam w sumie też kilka dni temu,
to jest taka webowa apka, bardzo prosta
w użyciu, do uruchamiania
własnych, znaczy lokalnych modeli,
no, dużych modeli językowych
LLM.
Na swoim sprzęcie, na swoich zasobach.
W sumie jedyne, co tam
próbowałam uruchomić, to
Code Llama, czyli taki model
dla programistów,
no i cóż, ten model ważył chyba tam
3 albo 5 giga. No, mądry jakoś, bardzo
to on nie był, zapytałam się go, co potrafi, a on mi wypluł
chyba jedyne, co miał po polsku w całej bazie, czyli
jakieś 10 zadań, tam wypisz na ekranie
swoje ulubione gwiazdy, wypisz na ekranie
ile cyfr ma twój PESEL i tak dalej, i tak dalej.
Później
zapytałam się po angielsku, co potrafi, to mi to przetłumaczył,
stworzyłam nowy czat i napisałam, żeby mi stworzył
wtyczkę do NVDA, a on mi zaczął pluć jakimś
okomentowanym kodem w C++, to jest chyba po prostu
różnął mi datasetem, wrzucał mi
po prostu to, co miał w datasecie, więc
jakoś bardzo długo nie potestowałam tej apki,
bo stwierdziłam, że to jest głupi materiał, od razu go usunął,
ale muszę sprawdzić,
czy ta apka nie będzie w stanie obsłużyć MusicGen
albo MusicGen Continuation, bo możemy sobie wrzucać
linki z Hugging Face
do tej apki, żeby ona
je nam zainstalowała i
zainterfejsowała, czyli
żeby wewnątrz niej można było uruchomić
te modele, aczkolwiek tam jest napisane, że
LLM, czyli nie wiem, czy tam…
no bo w sumie MusicGen jest troszkę
LLM-em, bo przetwarza językowo jakoś
te komendy, natomiast
nie wiem, czy dla multimodalnych tych LLM-ów
jakiekolwiek wsparcie w tej apce jest, więc
muszę się tym nieco bardziej próbować, no ale
czas niestety nie jest dla mnie ostatnio łaskawy.
Kolejna rzecz, w sumie
chyba dzisiejszy news,
czyli to, że
OpenAI chce zbawić
zwabić, jejku, nie umiem mówić,
dawno w sobie przeglądzi, nie było mi, mi konwersacyjne
umiejętności spadły. Chce zwabić
programistów do budowania
ich aplikacji oparci o
api ChatGPT, wprowadzając
nowe funkcje i tutaj jest głównie mowa o dwóch,
mianowicie dodanie tego modelu
GT4V, czyli z możliwością przetwarzania zdjęć
do api,
czyli na przykład można byłoby stworzyć sobie apkę
tak rzucam, która
byłaby w stanie tworzyć teksty alternatywne
do zdjęć, no czyli co, na przykład
robimy sobie prompta, że
opisz to zdjęcie
tak, jakbyś opisywał je osobie niewidomej,
a jakby
użytkownikowi dajemy prosty interfejsik,
gdzie się wkleja obraz,
czeka się i się dostaje
tekst, można go sobie oczywiście poprawić,
no bo to jest tam w jakimś polu edycyjnym i
jak się da Ctrl S, no to załóżmy zapisuje się
zdjęcie z podstawionym
tekstem alternatywnym, ten który tam w tym polu edycji był
i już można trzepać kasę dostępności.
Sprzedałam pomysł na biznes, natomiast
kolejna rzecz, która ma być wprowadzona w tym api
w sumie nie do końca, zrozumiem o co tam dokładnie
chodzi, ale chyba po prostu chodzi o
zwiększenie jeszcze bardziej
kontekstowości, czyli że więcej
tokenów będzie możliwe
do przechowywania w jednej sesji,
znaczy w jednym czacie,
w jednej jakby konwersacji,
a praktycznie mówiąc chodzi o to, żeby
tam on pamiętał co było
we wcześniejszych
wiadomościach mówione, no bo jeżeli przekroczymy ten limit,
który obecnie jest, no to on tak w sumie zostawi
sobie te najnowsze wiadomości, ale te stare to już
tak wykasuje, no i będzie tak bazował w sumie
na tym, co jest teraz mówione, a to co jest
wcześniej, no to będzie tak próbował w sumie zgadywać z tego, co
jest teraz. Tak, on ma jakieś to swoje okno takie, tak?
W ramach którego po prostu
to wszystko pamięta i to okno
prawdopodobnie chodzi tu o to, że będzie rozszerzone.
Właśnie chyba tak, aczkolwiek było to jakoś tak
mętnie wytłumaczone, więc nie wiem, czy to są jakieś
nowe niesamowitości, czy też właśnie to jest to,
co powiedziałam.
Kolejno w sumie
takie moje spostrzeżenie, że chyba jesteśmy
krajem trzeciego świata, bo
Antropic Cloud, czyli ten
cloud.ai
chyba też nawet dzisiaj
wypuściło takiego newsa na Twittera, że
jesteśmy dostępni w 95 regionach
państwa, także
odwiedzajcie nas, super, fajnie, no i wszystko
super byłoby, gdyby nie to,
że na liście mamy
Albanię, Algerię,
jakaś Antigua
i Barbuda, Argentynę,
Australię, no to okej, Bahamy,
Bangladesz, Barbados i w ogóle wszystko,
Polski nie ma.
Być może jesteśmy dla nich zbyt
skomplikowanym językiem, żeby
z nami się tu dogadywać,
no kto wie, dobrze, że inne kraje unijne
inne są, jak rozumiem, bo to może być kwestia jakichś praw EU.
Jeszcze patrzysz,
zobacz, czy są jakieś kraje.
Może nie być w sumie, no nie ma
Niemiec, nie ma, ojej
Czyli właśnie nie jesteśmy
takim krajem trzeciego świata,
Unia i przepisy strzegą przed różnego
rodzaju nadużyciami.
No dobra, no to jakoś
jakoś się nie pomyślałam,
żeby sprawdzić, Meksyk,
Mongolia, Mozambik, Namibia,
ale nie, nie ma, nie widzę nic
z Unii.
Jeszcze tak patrzę po słowach kluczowych,
ale nie, nie widzę.
Więc faktycznie, no ale 95 regionów,
sobie tak myślałam, dobra, no to już na pewno będzie Polska.
Wchodzę, w sumie tak już nawet nie patrzę na listę,
zapisuję się mailem, a tu nie ma tak łatwo.
No rzeczywiście teraz
w kraju Unii Europejskiej coraz
bardziej przyglądają się różnego rodzaju
kwestiom dotyczącym sztucznej inteligencji
i to rzeczywiście może mieć wpływ na to,
jakie różnego rodzaju narzędzia będą dla nas
dostępne. Czasami chciałabym się zamieszkać
w Mozambiku, chociaż wtedy to i tak by mnie pewnie nawet
No właśnie ja mam wrażenie, że wtedy musiałabyś
się zmagać z nieco innymi i
zdecydowanie większymi problemami.
Oczywiście, to było tak dla żartów powiedziane, oczywiście.
Kolejna rzecz w zasadzie od twórców
TikToka, czyli ByteDance.
Rzecz nazywa się Salmon,
przez dwa N na końcu
i to jest model też LLM,
czyli duży model językowy, który
rozumie różne typy audio
i jest w stanie na nie tworzyć tekstowe odpowiedzi.
W zasadzie
nawet przykłady na GitHubie są podane
jako zdjęcia, więc nawet nie byłam w stanie
zapoznać się z tym, jak tam
to wygląda i jakiej to jest jakości,
ale, znaczy,
może byłabym w stanie, musiałabym ocelerować, ale po prostu jakoś
jakoś za szybko,
późno ten news do mnie dotarł.
Natomiast cóż, no jest na GitHubie, można go sobie
postawić, może nawet w tej awce
LLM Studio by był do postawienia
no i cóż tu więcej.
No tam w tych egzemplach były jakieś,
była jakaś mowa, jakaś muzyka, kaczka
i strzał.
No i też oni mówili, że, znaczy pisali
w Read Me, że…
Ale to on ma opisywać tekstem to, co dostaje na wejście?
Znaczy to chyba zależy od promptu, bo tam wysyła się
prompt tekstowy, który mówi, co ma zrobić z danym
dźwiękiem i dźwięk.
Więc no to po prostu zależy pewnie od promptu
i od jego możliwości. W każdym razie oni tam nawet piszą,
że można
wysłać mu audio, jak ktoś mówi
i nawet jeżeli język nie jest
wylistowany jako
nauczony w datasecie, no to on może próbować
przetłumaczyć to na jakiś inny język,
który już w tym datasecie jest, więc…
No więc cóż, no rzecz warta przetestowania, ale w sumie
nie znalazłam nigdzie tak na szybko żadnego Hugging Face’a
czy też innej platformy, na której mogłabym to przetestować,
więc nie patrzyłam, ale…
Oczywiście w Pythonie jest jakiś tam plik
demo.py, więc może
jak wam się chce, to
sobie odpalicie i dacie znać, jak to działa.
Kolejna rzecz
FakeYou, w sumie
tak sobie teraz…
Tak mi się rozjaśniło, że chyba może o tym kiedyś mówiłam,
ale to jest usługa,
która zawiera
od groma modeli do konwersji
dla nas co najważniejsze
głosu na głos, czyli ja mówię
jakimś głosem i to jest tam nie wiem
w modelu głosu innej osoby
no i to brzmi tak jakby ta inna osoba to mówiła,
czyli coś jak VoiceMod, coś jak RVC,
SVC i te inne takie.
Natomiast druga rzecz to jest
TTS, czyli po prostu modele
do wymawiania tego, co wpiszemy
w tekście, no i tam są jakieś
darmowe płatne plany tych modeli, jest tam z 4000,
czyli ile? No tak, sygnalizuję, bo nie testowałam,
ale gdyby ktoś chciał,
no to jest coś takiego.
I ostatnia rzecz, która mi się gdzieś tam
przytrafiła
jako news to jest silnik
wyszukiwania modeli sztucznej inteligencji
AIModels.fy
F-Y-I
i to jest fajne, bo tych
modeli jest tam od groma, on przeszukuje jakieś
główne strony z tymi
modelami i chyba nawet można, tam jest przykład,
żeby wpisywać językiem naturalnym
jakby to, co byśmy chcieli uzyskać,
czyli na przykład nie musimy tak jak w ogóle, tylko
chciałabym model, w sensie na po angielsku
oczywiście, ale chciałabym model sztucznej inteligencji,
który będzie w stanie, no nie wiem,
wymówić dla mnie
albo, nie wiem, skomponować dla mnie muzykę w oparciu o
tekstowy prompt na przykład. No i on
będzie przeszukiwał te główne bazy,
które ma gdzieś tam wylistowane na głównej
stronie, no i poda nam wynik
przeszukiwania. Nie testowałam, ale to, co zwróciło moją
uwagę, to jest to, co jest
w sumie środkowej, bardziej
albo dolnej nawet części strony, czyli
sekcja Last Added Models
i tam, no właśnie,
nie wiem, czy ostatnio sparsowane, czy ostatnio dodane
modele, no w każdym razie jakieś nowinki
sztuczno-inteligentne są,
także to jest kolejny taki mój
hub do sprawdzenia,
co tam nowego w tym kontekście
i jest jeszcze jakiś newsletter, do którego co prawda się
nie dokopałam, bo na głównej stronie go nie ma i też nie ma do niego
jakiegoś linka w miarę transparentnego,
w którym podobno dają jakieś
tutoriale, jak czego używać
i mówią o tym, co tam nowego się pokazało
w ramach tych modeli.
No i to by było na tyle.
Sztuczna inteligencja jak widać się rozwija,
teraz jeszcze dawka kultury od Wojtka,
bo już jakiś czas temu napisał do nas na Facebooku
poniżej oferta dostępnych spektakli z
Nowego Teatru w Warszawie. W nawiasach podaje
jej adres do informacji
o spektaklach, tam są adresy strony
internetowych, więc nie ma sensu tego czytać na
antenie, ale myślę, że te spektakle
i daty warto.
Goście Wieczerzy Pańskiej
to 28 października
o godzinie 19,
a około 18 touch tour.
Nie ma makiety, ale scenografia jest
minimalistyczna. Tu mamy taki opis
i taką informację. Odyseja, historia dla
Hollywoodu. To z kolei
25 listopada
o godzinie 18,
to jest sobota, a około 16.30
touch tour. Wstyd
drugiego grudnia
i też sobota to jest, o godzinie 19,
a około 18 touch tour.
Wyjeżdżamy, z kolei będzie
10 grudnia i to jest
niedziela o godzinie 18,
natomiast około 17 touch tour.
Więcej informacji można
uzyskać u Heleny Świegockiej, która
pilotuje tę sprawę w Nowym Teatrze.
Podaj jej adres e-mail
helena.świegocka.nowyteatr.org
Dziękujemy Ci bardzo
Wojtku za tę dawkę
kulturalnych informacji. Teraz
przechodzimy do kolejnych tematów,
ale zanim, to jeszcze jedna wiadomość głosowa.
Maciek tym razem do nas wiadomość wysłał.
Słuchajmy.
Cześć Wam wszystkim, Maciek się kłania,
Maciek Walczak się kłania, ja jeszcze z takim
drobnym newsem, tym razem postanowiłem się nagrać.
Mianowicie, nie pamiętam tylko czy wczoraj
czy przedwczoraj, natomiast Amazon
udostępnia, a właściwie zaczął
udostępniać logowanie się przy
pomocy kluczy dostępu.
Ja szerzej też o tym
mówiłem w audycji poświęconej
bezpieczeństwu kaseł.
Tak ona została zatytułowana na łamach
tyflopodcastu, natomiast w tyfloprzeglądach
w niejednym tyfloprzeglądzie już
padało to stwierdzenie, to sformułowanie
i czym te klucze dostępu są.
Mówiąc w skrócie, logujemy się
własnym telefonem
przy pomocy odcisku palca
bądź skanu twarzy do danego serwisu
no i to nasze urządzenie
uwierzytelniające, w tym przypadku telefon jest
naszym kluczem, jednym z naszych
dwóch kluczy, drugi jest przechowywany
na danym serwisie.
No i właśnie wprowadził to Amazon.
Generalnie, nie pamiętam gdzie ja to
wyczytałem, czy na iCulture.pl
czyli właśnie niderlandzkim
portalu dotyczącym
Apple, czy na Macrumors, nieistotne
w każdym bądź razie od właśnie
poniedziałku bądź wczoraj, raczej
chyba wczoraj, bo no cóż, robiłem to
na jednym z wykładów
na uczelni, sobie bez wstyd nie konfigurowałem
tęże funkcję.
Można to zrobić na razie z poziomu strony
internetowej, z poziomu strony internetowej
Amazonu.
Funkcjonalność pojawi się też w przyszłych
aktualizacjach aplikacji mobilnej
dla systemu iOS i Android
chyba też. W każdym bądź razie
na razie dostępna opcja
możliwość ustawienia tegoż z poziomu
strony internetowej, stricte z poziomu strony internetowej.
Kiedy sobie rozwiniemy menu
pojawią się naszym kursorom
niezliczone kategorie, dlatego należy sobie
przejść w zasadzie na koniec strony
i tam znajduje się
sekcja ustawienia i pomoc, tam
potem bodaj moje konto czy jakoś tak, no i tam już
logowanie i zabezpieczenia, możemy sobie te klucze
dostępu włączyć. Oczywiście tradycyjnie
w przypadku
systemu macOS wygląda to tak,
że możemy sobie albo, oczywiście
voice over robi się, wtedy pokażę tabelka,
w której mamy wybór albo od razu
skonfigurowanie sobie
w pęku kluczy iCloud wszystkiego
i wówczas będziemy proszeni o
odcisk palca, bądź też jeśli na iPhonie to
skan twarzy. Drugą opcją jest
dostęp z innego urządzenia, czyli
no właśnie poprzez skanowanie kodu QR, to o czym w audycji pokazywałem.
Trzecią opcją jest fizyczny
klucz sprzętowy zewnętrzny,
taki wpinany po porcie USB
łamany na USB-C do komputera, bądź też
zbliżenie na NFC do telefonu.
To też o czym mówiliśmy
w audycji temu poświęconej. Więc
tak generalnie można
i Amazon poszedł w te ślady, ja myślę, że słusznie,
dlatego że oni również są
członkami FIDO,
w każdym razie tego całego
kluczu odpowiedzialnego za m.in.
bezpieczeństwo, właśnie haseł,
którzy opracowali ten standard
właśnie PASKIS, czyli kluczy dostępu.
To by było na tyle ode mnie, rozgadałem się jak zwykle,
ale mam nadzieję, że
jakoś też na coś się ta informacja przyda,
zwłaszcza jeśli macie konto Amazon,
kupujecie, no to myślę, że
warto sobie coś takiego skonfigurować, bo to zawsze
jest bezpieczniejsza alternatywa niż
tradycyjne hasła. Pozdrawiam Was serdecznie,
no i cóż, pozostaje na nasłuchu.
Maciek kłania się nisko.
Dzięki Maćku za wiadomość, pozdrawiamy Cię również serdecznie,
no i pozostajemy w dalszym ciągu w tematach
aplowych, bo Pawle, Ty masz teraz informację,
swoją drogą ten kącik newsów
sztucznie inteligentnych przeniósł nas, jakbyście nie zauważyli,
do technikaliów i w technikaliach jesteśmy, będziemy
jeszcze przez momencik, bo właśnie
a propos nadchodzącej konferencji Apple,
Ty Pawle masz dla nas wieść.
Tak, było ledwo co dowiedzieliśmy się, że wyszły nowe iPhony,
to nie było aż tak dawno temu, ledwo co tu się ukazał jakiś
nowy iOS, no a się okazuje, że Apple nas straszy
i to tak dosłownie nas straszy,
bo nową konferencję zapowiada
i to 30 października, więc data
nie jakaś przypadkowa, bo wszak to dzień przed wigilia
Halloween,
no i nazywa się to wydarzenie
Scary Fast, czyli przerażająco
szybko ma być.
No, domyślać się można tylko co
Apple będzie chciała na takim wydarzeniu zaprezentować,
najwięcej podejrzeń pada na to, że
maki, nowa seria maków, w tym
na przykład 24-calowy
iMac
i w ogóle procesory M3,
czyli kolejna generacja będzie jeszcze szybciej,
no przerażająco szybko.
Na to wskazują różne, właśnie, no nazwa
tego wydarzenia, jakieś przecieki, które się tu
powoli pojawiały
i…
no nowy MacBook Pro
jest zapowiadany, więc no coś około maków,
więc jeżeli ostrzycie sobie ząbki na
jakieś nowe maki, no to może to będzie
wydarzenie dla Was. Ono się odbędzie
właśnie w poniedziałek i też w jakichś godzinach
albo wieczornych, albo późnych popołudniowych
naszego czasu.
No i będzie to transmitowane zarówno w aplikacji
Apple Developers, czy też na stronie Apple,
jak i na YouTubie, także będzie można
sobie to spokojnie obejrzeć.
Mamy jeszcze kilka wiadomości od Maćka, tym razem wiadomości tekstowych.
Asystent głosowy Amazonu, czyli Alexa
od niedawna obsługuje przeszukiwanie
i odtwarzanie podcastów Apple
w 40 nowych krajach, w tym u nas w Polsce.
Ponoć można ustawić aplikację Apple jako
domyślną. Ciekawe, czy rozpoznaje
Tyflo Podcast, jak się powie.
Ciekawe, ciekawe.
W Krakowie pojawiła się nowa taryfa Ubera,
mianowicie Uber Woman, czyli
jak nazwa wskazuje, przejazdy pasażerek
również z kobietami w roli kierowców.
Niestety u mnie w podkrakowskiej miejscowości
taryfa ta nie jest dostępna.
W Krakowie nie sprawdzałem jej dostępności, wiem jedynie
o wprowadzeniu tej taryfy, gdyż Uber rozesłał
odpowiedni komunikat drogą mailową,
a zatem dobrych przejazdów po Krakowie
z uberowczyniami. Drogie słuchaczki, drogie pasażerki.
Tak, ja też tego nie testowałam.
No widzisz, to nic tylko testować.
I jeszcze jedna wiadomość od Maćka, swoją drogą
to już druga usługa Ubera wprowadzona
na przestrzeni ostatnich kilku miesięcy, gdyż
wcześniej została wprowadzona taryfa Uber XL,
czyli przejazdy
większymi autami 6 osób plus kierowca.
To już na szczęście jest dostępne u mnie
w tej mojej miejscowości, także chociaż tyle.
I to tyle wiadomości od Maćka.
Teraz jeszcze mamy tu od Grzegorza informację
dotyczącą Klauda.
Paulina, co do Klauda, to dziwna sprawa.
Niby Polski nie ma na liście, a normalnie działa
po polsku. Tylko pierwszy raz trzeba wejść z VPN,
zalogować się Googlem, a potem działa z polskiego
IP i można gadać po polsku.
Jak trzeba wejść pierwszy raz?
Z VPN, przez VPN.
No to, Paulino…
A ja wiedziałam w sumie, że tylko raz.
To Grzegorz chyba już o tym kiedyś wspominał,
że to tak można obejść.
I na koniec, na koniec, Paulino,
przynajmniej to co w notatkach u nas jest,
twoje wrażenia z nowego Outlooka,
testowania nowego Outlooka.
Jest źle, czy jest dobrze?
W sumie to nie masz odświeżonej strony, bo
poza tym Outlookiem to są jeszcze dwa moje newsy.
Jeden w cyfrowościach, jeden w technikaliach.
Aczkolwiek co do Outlooka,
no to cóż, tak jak wcześniej mówiliśmy,
w sumie mogłam to nawet dać z poprzedniej audycji,
bo kiedyś, kiedyś mówiliśmy o tym,
że ten też z Windowsa będą znikały.
No i teraz już mamy na to produkcyjny dowód,
mianowicie ukazał się już jakiś czas temu,
no i znowuż się tu daję we znaki moja nieobecność.
Jakiś czas temu ukazał się ten nowy, nowiutki Outlook,
który nie jest dla mnie jakoś niesamowity,
już od razu mówię.
Mogę pokazywać, ale w sumie wolałabym nie,
bo jakoś nie czuję się intuicyjnie w tym Outlooku.
No w każdym razie jest to webowa appka,
która ma tam jakieś kilka
dla nas łatwych,
na przykład można się tam w trybie
no trybie edycji
podinsertacja
przemieszczać po drzewie
po liści wiadomości i drzewie folderów.
Shift Enter i jak się otworzy wiadomość,
no to ona się tam pokaże w jakimś podglądzie,
tylko że wtedy trzeba opuścić ten tryb edycji
i wejść w tryb przeglądania,
żeby tam parę razy strzałką w dół zobaczyć na podgląd.
Z tym, że jak wiadomość ma załącznik,
to ten załącznik nie jest tam, gdzie podgląd,
tylko chyba w ogóle jeszcze gdzieś indziej,
nawet nie wiem, czy on jest osiągalny z poziomu tego Outlooka,
bo nie chciałam się tam dobijać.
No ale nie jest to w każdym razie jakieś takie
mega fajne, intuicyjne i super,
ale działa ci działa.
To, co na pewno nie działa i na co jestem
zła niesamowicie, to jest to,
że nie do końca, w sensie
ten Outlook jest taki
fajny dla użytkowników, którzy mają
jakiegoś tam maila na Gmailu, Yahoo,
tam Microsoft 365 i tak dalej,
ale gorzej jak
chce się zrobić coś nieco bardziej zaawansowanego,
bo
kwestia jest tego typu, że
mój mail studencki wygląda tak,
że to jest ten sam adres,
ale w zależności od tego, czy połączyć się do Microsoft 365
czy do e-mapa na konkretnych
portach i adresach, to widzę inne wiadomości,
bo na 365
widzę jakieś tam zaproszenie na wydarzenia
na Teamsach, jakieś takie głównie
powiadomienia z ofisa, natomiast na e-mapie
widzę całą swoją korespondencję, czyli
to, co tam ktoś do mnie pisze, cały usos,
całą uszczelnianą platformę
alerningową, wiadomości do mnie bezpośrednio,
wiadomości wysyłane
przez dzikan, i tak dalej.
I teraz, jak ja wprowadzę tego maila
do Outlooka,
to on od razu widzi 365, dobra, dajemy 365.
I nie jestem w stanie
w żaden sposób osiągnąć tego, żeby
on się mnie zapytał, jak ja chcę się do tego maila
podłączyć.
Jest jeszcze taka kwestia, że próbowałam się
podłączyć jako swój numer albumu,
bo to jest alias tego maila
i wtedy mi faktycznie
ten e-map wykrył i nawet pozwolił mi tam porty skonfigurować,
ale z kolei
tam powiedział, że
to jest konto iCloud i tam skontaktuj się
z kimś, bo jest błąd i w sumie to
nie. Przy czym nie powiedział, jaki to jest dokładnie błąd,
no ale błąd.
Więc się nie udało.
Kolejna rzecz, która mi się nie podoba,
no to w sumie to, że właśnie
ta poczta i kalendarz
rozdzielone na dwie aplikacje według mnie są takie
trochę bardziej wydajne,
no bo nie jest ten interfejs taki zawalony różnymi rzeczami.
Po prostu chcę pocztę, otwieram pocztę,
chcę kalendarz, otwieram kalendarz. No jakoś tak się przyzwyczaiłam
i trochę trudno mi jest z tego zrezygnować.
Tylko niestety wiesz, w Outlooku
takim faktycznie, który jest w pakiecie Office
i z którego korzysta się zazwyczaj w warunkach firmowych,
to już od dawna jest w ten sposób,
że to tak wygląda, że tam się
przełącza między tymi różnymi widokami, tam jest kalendarz,
jakieś listy zadań, maile
i coś tam jeszcze chyba nawet. Ja rozumiem, tylko że w warunkach
firmowych to jest jak najbardziej uzasadnione.
Natomiast w warunkach prywatnych mam wrażenie, że nie do końca.
Nie zawsze poczta jest tak
bliska kalendarzowi jak w firmach.
A to jest akurat prawda, natomiast
ja tu tak przynajmniej myślę sobie,
że Microsoft chce
ujednolicić ten widok, dlatego że coraz więcej osób
korzysta z tych narzędzi w pracy, z Outlooka
gdzieś tam w pracy i chcą,
aby ludzie się czuli jakby znajomo,
korzystając z takich narzędzi w domu. Być może o to tutaj chodzi.
No i też podobno gdzieś tam w tym Outlooku
jest możliwość proponowania
nam odpowiedzi przez czata GPT,
znaczy przez ten, no, Bing-chat powiedzmy,
ale nie udało mi się do tego uzyskać
dostępu, pomimo że próbowałam gdzieś tam się przegrzebywać
przez zostawienia, mimo że jakieś
wiadomości próbowałam pisać. Inna sprawa, że pisanie
wiadomości też tam nie należało do jakichś
ekstra wygodnych, ale w sumie też już nie pamiętam z jakiej przyczyny.
Ja w mobilnym Outlooku raz dostałem
propozycję, że może mi AI
pomóc napisać taką wiadomość.
I akurat wtedy nie chciałem tego wykonać,
nie chciałem tej pomocy, bo
pisałem już tę wiadomość sam i chciałem, żeby tak zostało,
więc odmówiłem i więcej
już takiej propozycji nie dostałem.
Oj, no to AI się zraziło do ciebie.
Tak, obraził się na mnie.
No i cóż, chyba to jest tyle, jeśli chodzi o Outlooka.
No teraz próbowałam go sobie na szybko postawić,
wizualnie pokazać, ale w sumie
on się zapętlił na tym, że logował się
do konta Google’a i cały czas
mówił, że się nie powiodło i te monity
o logowaniu nie wyskakiwały w ilościach masowych.
Natomiast to konto
było tam w sumie wstawione,
więc nie wiem, o co że on się tak buntował.
Może po prostu zawiesiło go to, że
nie mogło się logować do konta, który jest
i w sumie Google mu nie udzielał żadnej informacji, że zezwolono itd.
No i on się na tym jakoś pętlił.
No ale to, co jest jeszcze fajne, co mi przyszło do głowy,
to jest ten Unified Inbox, czyli
że możemy sobie przeglądać
obydwa maile w jednej skrzynce odbiorczej
posortowane na przykład po dacie
i widzimy ze wszystkich maili odebrane
i maili wysłane, no ale na ten moment
według mnie ten Outlook nie jest jeszcze do użytku.
Może jak coś się poprawi z tymi skrótami,
z tym czytaniem wiadomości, z pisaniem,
no to będę się gdzieś tam przysiadać z tego Beckiego,
ale na pewno wydajnością
nie będzie dorównywał Beckiemu.
No ja jakoś jak tak słucham o różnych
przygodach, jakie teraz dzieją się
użytkownikom z klientami pocztowymi, czy jakieś takie problemy
na chwilę obecną z Thunderbirdem,
czy to, co się dzieje właśnie z Outlookiem.
Ja się bardzo cieszę, że mam Becki
i że z niej korzystam i po prostu, że ona działa.
Ja również.
Co prawda mam czasem z Becki problem z
kontem Microsoft, które mam,
a jedno mam konto służbowe właśnie Microsoft Office 365
i to jest problem taki,
że co kilka miesięcy
pojawia się komunikat o błędzie,
że on nie może się połączyć, że…
I to jest jakiś taki w ogóle śmieszny komunikat o błędzie.
Coś w rodzaju, że wystąpił błąd,
ale nie ma błędu.
Tak teraz bardzo swobodnie to tłumaczę
jest to opis zaistniałej sytuacji,
a nie dosłowne tłumaczenie tego komunikatu.
Natomiast już teraz pamiętam,
co należy zrobić, jeżeli coś takiego się stanie.
Ten błąd wynika
przynajmniej u mnie, być może jestem jedynym
użytkownikiem, który ma taki błąd, ale jeżeli komuś
by również on się objawiał, to już podpowiadam.
Jest, to wynika z tego,
że czasem Becki z jakiegoś powodu
nie może zapisać pliku JSON
autoryzacyjnego właśnie tego mechanizmu
OAuth, bo on się co jakiś czas aktualizuje.
Tam co kilka miesięcy po prostu nam ten OAuth,
ten klucz wygasa i Becki musi sobie
pobrać z serwera nowy klucz.
My musimy znowu zezwolić na dostęp,
następnie po prostu trzeba,
żeby ten plik został zapisany u nas na dysku.
No i wszystko fajnie, ale z jakiegoś powodu u mnie to po prostu
czasem nie chce działać. Trzeba wtedy poszukać tego pliku
.json, który jest w folderze
tego konkretnego konta pocztowego,
usunąć go, zamknąć, otworzyć Becki
i wtedy zacznie nam to wszystko
dobrze działać, będzie,
on sobie już bez problemu pobierze,
nie ona, bo Becki to w końcu kobieta,
od Rebeki zdrobnienie
i pobierze sobie ten program,
ten plik i będzie już wszystko działało.
Do następnego takiego przypadku,
czyli znowu za kilka miesięcy trzeba się zastanawiać,
co ja takiego zrobiłem, żeby
mi to wcześniej działało.
W sumie inny problem z Becki, mianowicie jak otwieram
link, to jest
takie pytanie, czy chcesz otworzyć ten link
i jeżeli się da na tym enter,
to jest już taki dźwięk zwiastujący to, że
to okienko się pojawiło, ale okienko się nie pojawia.
Trzeba dać tam, no przyłączyć się na jakieś inne okno
i znowu alt-tab na Becki i wtedy to okienko się pokaże,
ale jest taki sposób,
że da się shift-enter i wtedy to okienko się
nie pokazuje, ale po jakiejś sekundzie myślenia
tego Becki, nie wiem, może to jest jakaś inna funkcja,
znaczy tej Becki, może to jest jakaś inna funkcja, która jest wywoływana
w ten sposób, może po prostu wystarczy wyłączyć to
w ustawieniach, to pytanie się o linki,
no ale mam taki błąd
właśnie, który tym się objawia.
Ale tak poza tym to bardzo…
Tak, bardzo dobry program i jeszcze raz podziękowania
Łukasza Golonki za skrypt do NVDA,
bo Łukaszu, no…
Ratujesz życie.
Ludziom, którzy chcą szybko wyjść z e-maili.
Tak, coraz bardziej teraz to po prostu się docenia w momencie,
kiedy różne rzeczy dzieją się z programami pocztowymi,
naprawdę bardzo, bardzo dobrze, że jest ta Becki
i że cały czas ten program jest jednak
mimo wszystko rozwijany.
Rozwijany? To ja nie wiem, czy on jest.
Tak, on cały czas jest rozwijany, tam pojawiają się te wersje dosyć rzadko,
tak mniej więcej raz na rok, ale autor cały czas nad tym pracuje.
To nie jest tak, że on został zawieszony.
Nie, nie, nie. Właśnie w tym sęgrze trzeba po prostu
od czasu do czasu zajrzeć na stronę twórcy,
bo wtedy się dowiesz, że jest nowa wersja.
Okej.
Tak to działa.
Natomiast teraz przechodząc do kolejnych wiadomości,
które mamy, to mamy na przykład wiadomość
od Maćka. No to posłuchajmy.
No słuchajcie, konferencja
Apple’owa, to ona nam się odbędzie mroczno
strasznie, scary fast.
Podobno w tym Apple portal
nasz rodzimy polski pisał, że
o godziny pierwszej w nocy, także już
w zasadzie z 30 na 31,
także w sam raz przed Halloween, także jest się czego bać istotnie.
O proszę, no to
faktycznie osobliwa pora.
Jeszcze widziałem przed momentem, że
mamy tutaj jedną wiadomość do odsłuchania
i to jest wiadomość od Michała.
Już jej szukam i już ją
odtwarzamy.
Michał Kaspierczak ponownie.
A propos Outlooka i tego, co mówiła
Paulina, co mówiłaś, że Outlook
w takiej pracy
prywatnej, że tam
nie są jakby potrzebne aż tak
te wszystkie funkcje i rozwiązania
takie jak proponowane przez Outlooka
w firmach.
No wiadomo, Outlook to jest program głównie
gdzieś tam stworzony do pracy właśnie w korporacjach, w firmach
jakkolwiek, ale to też tak
myślę sobie nie do końca. Ja już nie używam
jakoś tak Microsofta Outlooka, ale miałem taką
chwilę, gdzie używałem tego programu.
Trochę też to było spowodowane
pracą zawodową, ale używałem go
również do celów prywatnych i muszę powiedzieć,
że to wcale nie jest takie głupie, bo wyobraźmy sobie
coś takiego. Podłączamy sobie
w kontach Windowsowych nasze
konto, np. Microsoft,
ale w ogóle konto jakieś, bo to można tak zrobić, żeby…
Nie pamiętam, jak to się robiło, czy w ustawieniach Outlooka, czy jak,
ale ja miałem tak zrobione, że miałem
kontakty iCloud, tak, bo to
z aplikacji iCloud można pod Windowsem jakoś to włączyć
było, przynajmniej tak kiedyś. Czyli tak, miałem w Outlooku
kalendarz iCloudowy, kalendarz
pracowy, miałem kontakty iCloud,
pamiętam, że tworzyłem i edytowałem jakieś
kontakty, które mi się synchronizowały z iPhonem,
więc być może z kontaktami Google byłoby podobnie,
ale tego nie pamiętam. Miałem notatki, pomijam
tam kwestię dostępności, bo tam były pewne problemy,
ale notatki, czyli tworzyłem sobie w Outlooku
taką notatkę, która mi się via konto Microsoft
synchronizowała z notatkami na
iPhone’ie, w dwie strony, tak, normalnie synchronizacja
pełna
i z poziomu iPhone’a mogłem edytować i
tworzyć i z poziomu Microsoft Outlooka.
Kontakt to, jak mówiłem, kalendarz przypomnienia,
integracja Outlooka z przypomnieniami iOS.
Co prawda to, no, ja nie
lubię tego interfejsu przypomnień i kalendarza Outlooka,
ale jest to możliwe. Także
powiem tak, jak ktoś, nie chcę mówić, że się
uprze, ale jak ktoś lubi albo się przekona,
to może się okazać, że ten cały
Microsoft Outlook, no to wcale nie jest
takie głupie rozwiązanie. No, a w tej poczcie
Windows, tej podstawowej poczcie Windows 10,
no tam też, zdaje się, mamy bliski taki dostęp szybki
do kontaktów, do kalendarza, czyli no to jakaś
taka koncepcja jest taka,
trochę taka sama, tak, można by powiedzieć. Także
no nie negowałbym tak do końca,
tak, tego, tego, tego Outlooka.
A nowego, nowy kiedyś testowałem trochę i na Macu
i zdaje się, że na Windowsie też, tam były
spore problemy i z NVDA i jakieś tam, ale to było
kilka miesięcy, w sumie dwa miesiące temu, więc mogło to się dużo,
to się mocno zmienić jednak, więc może nie będę
opowiadał co było
kiedyś, bo nie wiem do końca w sumie jak to jest
teraz. No i też wiadomo, że no co by nie mówić
jeżeli chodzi o Ofisa i Outlooka, no to JAWS
nam oferuje lepsze doświadczenia użytkownika
niż NVDA, choć do NVDA
Outlook Extended wtyczka, no ona chyba
tak istnieje nadal.
Okej, to jeśli mogę się odnieść. Jasne.
Generalnie fajnie, ja to rozumiem.
Nie wiem jak to ma z notatkami, ale zarówno
matko, kontakty jak i
kalendarz jak i poczta jest, tylko że teraz
jest taki scenariusz, otwieramy Outlooka
i na przykład wszystko to co robiliśmy tam albo na innym komputerze
albo na telefonie, albo na czymś, nam się zaczyna
cashować, zaczyna nam się, nie wiem, kontakty, notatki,
kalendarz, poczta, wszystko nam się zaczyna
zgrywać do tego naszego Outlooka do pamięci podręcznej
i w tym czasie zgrywania
no albo w ogóle Outlook
się nie pokaże cały, albo
mamy ograniczenia do
no jakby ograniczenia wydajności
natomiast
no jeżeli odpalę kalendarz, no to
odpalimy się tylko kalendarz, jeśli pocztę to tylko pocztę
i nie tracę tego czasu, który on
zabiera mi na
wygrywanie do pamięci podręcznej rzeczy,
których teraz nie potrzebuję. Ja go potrzebuję
zrobić sobie wydarzenie, otwieram kalendarz i mam za
dwie sekundy go mieć, a nie czekać aż mi się on wszystko
posynchronizuje, tam jakieś inne rzeczy, które mi są teraz niepotrzebne
więc myślę, że stąd wynikało
to moje negowanie, aczkolwiek
no jeżeli ktoś lubi, no to oczywiście nie będę
nie będę się z tym spierać, bardziej mi
po prostu chodziło o to, że według mnie jest to
nieco bardziej wygodne i wydajne, ale co kto tam używa
to jest jego kwestia i nie zamierzam tego
w jakikolwiek sposób kwestionować.
Okej.
To w takim razie tu mamy kwestię
związaną z Outlookiem,
a teraz Paulino jeszcze informacja od Ciebie
o różnych certyfikatach.
Tak, to jest bardzo drobniutki news,
właśnie też mi przed chwilą
przybył, to jest takie
repozytorium na GitHubie
z listą, taką tabelką, tam aktualnie jest
116 elementów
i właśnie tam są
darmowe kursy i certyfikaty, które możemy zdobyć
z różnych, no z różnych dziedzin
technologicznych, no to jest takie bardziej właśnie
IT-kowe i tam jest taki
taka fajna w sumie
cecha, że elementy
na wierzchu tabeli, czyli tam te pierwsze wiersze
są poświęcone na certyfikaty,
czy tam kursy, które mają
podany termin, przed którym
trzeba je zrealizować albo tam
zapisać się na nie, czy coś tego typu.
Więc te pierwsze wiersze tabeli nam
pozwolą na zapoznanie się z tym, co może już potem
nie być dostępne. No i
jeśli chodzi o to, jakie są kolumny w tej tabeli,
no to jest Technology, czyli
z jakiej technologii jest certyfikat.
Provider, czyli dostawca tego kursu
albo certyfikatu. Description to opis.
Link, no to wiadomo, link. I expiration.
Expiration?
Nie wiem. No w każdym razie wygaśnięcie,
no termin wygaśnięcia, tak? Czyli właśnie
albo nielimitowany, albo nieznany, albo
jakaś konkretna data.
Okej. I to, jak rozumiem, tyle?
Tak, tak. Dobrze.
Teraz tu widzę, że jeszcze miałaś informację o
Josie, natomiast my o tym Josie mówiliśmy
już o tych nowościach, o Split Braille’u
i o tej funkcji. Okej. Chciałam tylko zasygnalizować, żebym wyszedł.
Natomiast tu mamy jeszcze, tak, mamy jeszcze informację
o matkacie, tak? Czyli
mat.ml w dokumentach.
Nie pamiętam, czy o tym mówiliśmy. Chyba nie.
Ale ta nowa rzecz też się pojawi w Josie 2024
czy właściwie się pojawiła już w wersji testowej.
Znaczy ja nie chciałam też mówić o tych wnioskach, bo wiem, że mówiliśmy.
Tylko po prostu chciałam zasygnalizować, że ta wersja
stabilna się ukazała, no i że tam
mogą być jakieś rzeczy, które różnią ją od bet, o których wspominaliśmy.
Więc jeżeli chcecie, no to link jest.
No właśnie ten mat.ml widzę, że tu jeszcze nam doszedł.
Więc też fajnie. Dobrze.
I to tak naprawdę tyle, jeżeli chodzi o nasze notatki.
Pytanie, czy coś jeszcze
dodajemy? Ja może
szybko dorzucę, że Doug Lee
znany twórca skryptów do Josa do różnych rzeczy
zaczął tworzyć skrypty dla VLC MediaPlayera.
I na razie
dostępnych jest parę skrótów klawiszowych do odczytu gdzieś tam
głośności, paska stanu.
Natomiast też poetykietowanych
jest troszeczkę kontrolek, różne suwaki od efektów
są teraz dobrze czytane.
Gdzieś tam po menisie wygodniej, łatwiej
chodzi. Więc jeżeli używacie VLC,
a VLC to jest przepotężny kombajn, który potrafi
dużo różnych rzeczy i ja się łapię na tym, że jak
trzeba zrobić coś dziwnego z audio
i nie do końca wiem czym i jak, to prawdopodobnie zrobię to w VLC.
To w VLC, tak, tak. Przy czym jest to toporny program.
To jest NVIDIA, mimo tego, że istnieje dodatek. Dodatek mam
wrażenie jeszcze pogarsza sytuację, bo się tu jeszcze bardziej muli.
To no może z czasem
będzie to dzięki skryptom Douga. Wszak Doug nie od dziś
te skrypty tworzy. Będzie to może działało
płynniej i lepiej. No to w takim razie…
Ja w sumie jeszcze mam news, o którym zapomniałam
wspomnieć a propos tego naszego
podsumowania CZATak GPT+. Mianowicie
udało mi się
stworzyć działającą
wtyczkę do NVDA przy użyciu CZATak GPT-4.
Nie wydawaliśmy jej jeszcze, bo też z
kilkoma kolegami współpracowaliśmy
nad tym, żeby tam napisać jakiś readme,
napisać jakieś tam inne rzeczy.
Także jeszcze tego nie wydawaliśmy. Natomiast
wtyczka służy do
zarządzania kośćmi w RPG. W sensie do rzucania
takich RPG-owych kości. Jest prosta,
ale w zasadzie nie ma takiej.
Myślę, że najłatwiej
zrobić jest coś podręcznego i szybkiego
właśnie jako wtyczkę do NVDA. No i na co ona
pozwala. Mamy skrót w zdarzeniach wejścia nawet
zdefiniowany do rzucenia kostką
i mamy też
w ustawieniach osobną sekcję właśnie tej
wtyczki, która nazywa się Dice Roller,
w której tak naprawdę są
dwa pole edycji. Pierwsze to jest
ile ścianek,
nie pamiętam jaka jest kolejność.
Pierwsza jest ile kostek
ma być rzucony
w jednym rzucie, z jednym zamachem. A druga to jest
ile ścianek ma mieć jedna kostka. No i obydwa
te pole edycyjne są pokrętłami, czyli możemy
strzałką w górę i w dół zmieniać wartość o jeden.
A także wpisywać swoją.
Z ciekawości, ile czasu zajęło stworzenie
przy użyciu czata GPT takiej wtyczki?
Coś koło godziny, bo najpierw…
No nie wiem, godzina, pół, bo to też tam
jakieś testowanie, dodawanie nowych funkcji,
pisanie rytm i tak dalej.
Najpierw została stworzona wtyczka, która nie do końca działała,
potem tam poprawiła się, potem dodaliśmy
ten skrót do zdarzeń wejścia, potem ustawienia,
potem się tam trochę jeszcze…
No nie, no to troszkę może dłużej niż godzina, bo
się tam trochę namotałam w zmiennych, bo
tam też coś próbowałam edytować i
powiedziałam, żeby on mi to naprawił, on trochę nie umiał tego naprawić,
no ale w końcu mu się udało.
A na koniec dodaliśmy…
Na koniec dodaliśmy sumowanie
tego, ile wypadło na poszczególnych kostkach.
No to to już w sumie jest prościej.
No i tak jeden skrót, jak ja mam teraz ustawione
5 kostek
i 100 ścianek, no to
11, 14,
71, 73, 10
total 179.
No i to mi się wszystko posumowało.
W sumie to, czego
nie dodawaliśmy i co można byłoby
dodać, ale też pewnie by trzeba było własnoręcznie,
to jest nie kolejkowanie audio.
No bo jeżeli ja sobie wcisnę ten skrót kilka razy,
to on mi będzie w kolejce czytał te
wartości.
Natomiast można byłoby dodać ustawienie, w którym
on przerywa to, co aktualnie mówi i mówi
coś kolejnego.
I tak samo jest, znaczy w sumie
to się ciekawie
zachowuje, bo na przykład jak rzucę kostką
i zrobię coś na komputerze,
to on mi przeczyta pierwsze trzy rzuty,
a później już mi powie to, co ma powiedzieć, czyli jest jakieś takie opóźnienie
dziwne.
No ale cóż, no dlatego trochę jeszcze tego
tak nie wydajemy, bo chcemy to
może jeszcze poulepszać.
No i tak to wygląda.
W każdym razie, jak widzicie, można przy użyciu czata
GPT nawet wtyczkę, działającą wtyczkę do Nvidia
i napisać fajnie. I funkcjonalną taką. Oczywiście, że tak.
Tak, tak, to dla tych wszystkich, którzy
lubią RPGi. No bo jak się jest na letenie, to się rzuca kostką
skrótem, a jak się jest na przykład na Tim Toku, no to jest problem.
To jest problem, dokładnie. Okej, no to
w takim razie tym optymistycznym akcentem kończymy
206. wydanie Tyflo Przeglądu. Mała uwaga
dotycząca tego, co za tydzień,
a za tydzień, w środę akurat mamy
dzień wolny, bo mamy
wszystkich świętych, więc spotykamy się w czwartek.
Będziemy w czwartek wam opowiadać o tym, co
ciekawego w technologiach. Godzina niezmienna, godzina
20. Zapraszamy bardzo serdecznie,
a tymczasem dziękujemy już za uwagę
Paulina Gajoch, Paweł Masarczyk i mówiący te słowa
Michał Dziwisz. Do usłyszenia.
Pozdrawiamy.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych
i słabowidzących.
Program współfinansowany ze środków Państwowego
Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych