TyfloPrzegląd Odcinek nr 224 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. 224, tak? Dobrze mi się wydaje. Audycja Tyflo Przeglądu.
Zgadza się.
I dzisiaj w studiu razem ze mną Paweł Masarczyk, Piotrek Machacz
Witajcie.
A ja jestem Tomek Bilecki.
Mamy środę, 13 marca, więc można powiedzieć półmetek tego miesiąca, za chwilę wiosna, a my zaczynamy z Tyflo Przegląd i jak zwykle zaczynamy od tego co dzisiaj w audycji będzie się działo, o czym jak zwykle opowie Michał.
ułatwią podróżowanie.
Tłumacz DPL dostępny jako dodatek do NVDA.
Czy nadchodzi nowa wersja linijki Braille Edge?
Zmiany w kodzie NVDA to sugerują.
Prudence Screen Reader wrócił do sklepu Play.
Be My AI pojawi się na Windowsie.
Nadchodzą nowości w produktach Humanware.
Wyczuwalne oznaczenia także w niektórych sprzętach Sony.
Szukasz wagi do ciała sterowanej dostępną aplikacją? Mamy pewną propozycję.
Wyciekły plany nowych funkcji dostępności w iOS 18.
Doświadczenia z podpisywaniem cyfrowo dokumentów w Austrii.
macOS 14.4 wydany.
Envision planuje wiele nowości.
Udostępnianie prezentacji. Na co pozwala Teams, a na co Zoom?
Nowości w grach.
Aktualizacje bez restartu i smartfon jako kamerka.
Oto niektóre z nowości zmierzających do Windowsa 11.
Marker, wieloplatformowy edytor Markdown.
W Europie aplikacje na iPhona ściągniesz także ze strony dewelopera.
Wszystko to a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
A nasza audycja jak zawsze jest na żywo,
Zatem, jeżeli macie ochotę się z nami skontaktować, to jest na to kilka sposobów.
Przede wszystkim jest telefon 663-883-600.
Tu możecie dzwonić, ale możecie też wysyłać nam wiadomości głosowe na Whatsappie.
Zapraszamy bardzo serdecznie.
Jest kontakt.tyflopodcast.net, a właściwie będzie już za momencik.
Jest też Facebook, jest też YouTube.
Tam z kolei możecie pisać do nas komentarze w formie tekstowej.
A teraz już przechodzimy do już Meritum, czyli do, no jeszcze nie newsów może, w pewnym sensie chociaż, bo no to są rzeczy, które w poprzedniej audycji były, natomiast teraz są na ten temat aktualizacje pewne.
No i zaczynamy od Blinder Toolbox, który jest wykrywany przez Defendera jako niebezpieczne oprogramowanie.
Tak jest, ja się bardzo zastanawiałem w ogóle o co tu chodzi, bo pobieram sobie instalkę tego Blind Nerd Toolboxa, czyli przypomnijmy, to jest taki menadżer zadań z niewidzialnym interfejsem i z jakiegoś powodu on po prostu nie chce mi się pobrać, nie wiem co się dzieje, nie wiem o co chodzi, no a tu się okazuje, że niestety, ale ten antywirus Microsoftu po prostu go wykrywał jako plik niebezpieczny.
Prawdopodobnie, bo ja nie zakładam tu złej woli autora, ale prawdopodobnie chodzi o to, że no to jest jednak aplikacja, która dość dużo może i musi mieć jednak dość solidne uprawnienia, żeby być w stanie ubijać chociażby procesy,
No bo to raczej nie jest wskazane, żeby każda aplikacja mogła coś takiego robić, więc no i ona pewnie nie jest podpisana cyfrowo przez Microsoft, no bo to się wiąże z jakimiś tam dodatkowymi kosztami.
Więc tu, no jeżeli powiedzmy macie jakieś wątpliwości, to zalecałbym ostrożność, bo nikt z nas takiej stuprocentowej pewności nie ma, że ta aplikacja jest aplikacją bezpieczną.
Zakładamy, że tak jest, że autor, który jest zresztą znaną osobą w środowisku niewidomych, nie ma tu niczego złego na celu.
Natomiast taki komunikat się pojawia, więc czy te aplikacje uruchomicie na swoim komputerze, to po prostu już musicie rozważyć, jak to się mawia, rachunek zysków i strat potencjalnych.
Tak jest. I druga taka, coś jeszcze z poprzednich audycji, dotyczy rejestratorów Zoom i wiem, że to jest taki temat, których pewne, pewni ludzie mogą 24 na 7, natomiast innych ludzi ten temat zaczyna denerwować.
Pozdrawiamy Arka.
Tak, bo rzeczywiście dużo o tym się mówi, a rzeczywiście nie wszystkich interesuje, więc spróbuję w kilku słowach dosłownie, bo widziałem Zuma H6 Essential, dlatego że wcześniej mówiliśmy głównie o H1, no to powiedzmy gwoli czegoś w rodzaju uzupełnienia o H6 Essential,
który jest rejestratorem znacznie bardziej rozbudowanym, ma 4 wejścia XLRowe i dwa wbudowane mikrofony, które prawdopodobnie później będzie można zamienić sobie na inne.
To są takie rzeczy, o których można poczytać na różnych sklepach muzycznych w specyfikacji tych urządzeń.
Natomiast nie można porzucać o tym, że pliki dla dostępności są troszeczkę inne, to znaczy, że w Zoomie K6, na przykład gdy wychodzimy z menu, odszytywany jest stan baterii, w H1 tego nie ma, czyli za każdym razem jak wychodzimy z menu, ten stan baterii nam odszytywany jest.
To jest fajne, no szkoda, że w H1 tego nie ma, inne troszeczkę są dźwięki, tak jak w H1 jest jakby taki jeden rodzaj piśnięcia, tam są dwa, o też troszkę innych częstotliwościach, innych wysokościach, natomiast wyglądowo on jest bardzo podobny do tego starego Zuma H6, od tej starszej generacji, w związku z czym, jeżeli ktoś widział tą starszą wersję, to oprócz tego, że nie ma rzeczywiście pokręteł,
no bo firma Zoom dość konsekwentnie stosuje politykę żadnej regulacji głośności,
no to rzeczywiście jest inaczej i też nagrywa trochę ciszej.
To znaczy, że bez przegłośnienia te pliki nagrywane na Zoomie H6 są po prostu cisze od tych nagrywanych Zoomem H1E
I co? I troszkę mniej szumią te mikrofony wbudowane, więc to tak na szybko, bo widziałem tylko przez chwilę tego zooma, nie zdążyłem się nim jakoś bardzo pobawić, no niemniej, no i troszkę inny jest inny układ przycisków na ekranie.
Stary Zoom H6 był pokryty takim gumowanym plastikiem, takim trochę szorstkim o konsystencji takiej właśnie gumy i ten plastik ma to do siebie, że po kilku latach samoczynnie się troszkę przekształca i bardzo zmienia konsystencję w sposób bardzo niefajny dla użytkownika, on się robi klejący.
Wiem, czy mieliście takie urządzenia, które właśnie były gumowane, a potem się robiły klejące, jak oklejone jakąś plasteliną.
Tak, tak. Ja mam takiego pendrive’a na przykład.
No to już tego nie ma. I ten Zoom mam nadzieję, że już nie będzie. Robił się taki plastelinowaty i tyle.
Żeby więcej powiedzieć, to trzeba by rzeczywiście osobnej audycji, no bo niewiele tutaj zetestowałem, nie miałem też tego tak dla tych, którzy chcieliby smartfona, no to nie widziałem tego adaptera bluetooth, więc nie wiem jak wygląda współpraca ze smartfonem, więc to być może na przyszłość, choć nie wiem czy, o ile będę kupował tego Zuma H6, być może go kupię,
Wątpię, że będę kupował razem z adapterem, także prawdopodobnie nie przetestuję tego, natomiast być może jeżeli ktoś będzie kupował ten adapter, to zapraszamy oczywiście do przetestowania albo podzielenia się przynajmniej opinią gdzieś tam z nami.
No i tyle. A teraz już przechodzimy chyba do newsów na ten tydzień i zaczynamy od rozwiązań, które ułatwią podróżowanie.
To jest taki news czy kilka newsów w zasadzie od Pawła chyba?
Tak, tak, tak. To ode mnie newsy dwa. To jest bardzo fajnie, że teraz to na początku nam wpada, bo jutro będę się troszeczkę na to powoływał w audycji z Maciem Kapczyńskim.
o naszym, czy tam na naszych osobnych pobytach w Grecji i polecam bardzo
serdecznie tą audycję.
Nieskromnie powiem, bo może być bardzo ciekawie, dużo ciekawych opowieści,
dużo no takiego trochę smaczku podróżniczego, którego nie zawsze może
macie okazję posłuchać i też do tych aspektów będę nawiązywał zarówno do
aspektu taksówkowego, jak i do aspektu lotniczego.
Aspekt taksówkowy, przynajmniej tu w Polsce, jest taki, że firma Bolt wprowadziła ostatnio pewien nowy mechanizm, który ułatwi osobom z dysfunkcją wzroku podróżowanie.
No i co się stało?
Po pierwsze Bolt umożliwia teraz dodanie ikonek do naszego imienia i nazwiska, które w jednoznaczny sposób pokażą osobie, która będzie prowadzić nasz pojazd, że jesteśmy osobą z dysfunkcją wzroku bądź osobą z dysfunkcją wzroku i psem przewodnikiem.
I tutaj troszkę się nad tym pochyliliśmy z kolegą, z Robertem Lombino, który używa dość intensywnie tego typu usług i zawsze tego typu temat bardzo chętnie podchwycił.
Wdzięczni jesteśmy dzięki Roberto. Roberto, ponieważ ja tej funkcji nie mogę znaleźć, a Roberto również, zwrócił się więc Roberto do wsparcia technicznego Bolt.
No i co się okazało? Okazuje się, że to nie jest opcja, która jest jakoś tam konkretnie dodana, na zasadzie, że wybieramy sobie jestem osobą niewidomą, tam przycisk opcji zaznaczone czy coś, tylko chodzi po prostu o to, żeby dodać sobie emoji do naszej nazwy i to jest w ogóle trick, który chyba trochę z nas już wykorzystywało tak po prostu bez jakiegokolwiek nadzoru firm,
o ile firma na coś takiego pozwalała.
Wiem, że Uber ma z tym problem.
Tak, Uber ma z tym problem.
Sprawdzałem.
Tak. Bolt chyba nigdy nie miał, prawda?
Czy macie jakieś doświadczenia z Boltem, Tomek?
Nie wiem jeszcze o Boltem na razie.
I jeszcze mamy FreeNow.
Więc wiem, że któreś z tych aplikacji pozwalały,
no Uber nie, ale może przeczytam wam o tym tak w ogóle,
bo to nie są takie typowe ikonki,
jakich byśmy się spodziewali.
To są trochę inne ikonki, więc już czytam.
Czasami mała zmiana może stworzyć wielką różnicę.
Możliwość dodawania ikonki sprawi, że osoby niewidome będą mogły liczyć na ewentualne wsparcie.
Bolt wprowadził mechanizm, dzięki któremu zamawianie przejazdów przez osoby niewidome, także te z psem przewodnikiem, będą łatwiejsze.
Jak informują twórcy wystarczy, że do swojego imienia w aplikacji doda się jedną z dwóch ikonek.
oka sygnalizującego podróż z białą laską lub oka i psa, jeżeli towarzyszy pies-przewodnik.
No i tutaj moje bardzo wielkie ale, no po co my się w jakieś oko bawimy, skoro jest
mężczyzna, czy tam kobieta, czy osoba też niebinarna zdaje się, ale z białą laską.
Jakby podczas podróży dużo ważniejszy jest ten aspekt mobilności, czyli ta biała laska,
która jakby prędzej kierowca zauważy tę białą laskę, niż na przykład to, że nie widzę, nie wiem, patrząc mi w twarz.
Plus, no to jest nasz symbol, tak? No to jest jakby…
No tu się otwiera potencjał bardzo ogromny.
Ale ciekaw jestem, czy on jest wszędzie, bo na przykład na pewno go…
I to jest w ogóle przedziwna sytuacja, że nie wiem, czy zauważyłeś, nie ma tego symbolu w Advanced Braille Keyboard.
O kakiej białej laski?
Białej laski.
Ok, dawno nie używałem.
I teraz w związku z tym pytanie jest takie, czy go nie ma tam, bo go nie ma, bo sobie pan zapomniał, czy na przykład jest jakiś, bo ja nie wiem, jakiś standard na przykład tych emoticonów, jakiś podstawowy, jakiś rozszerzony.
Ten standard Emoji po prostu jest co parę lat aktualizowany, natomiast to Emoji Lasky nie jest jakieś bardzo stare, ono nie było do początku, ale na pewno od kilku lat już dostępne było, teraz nie przypomnę sobie w którym roku ono było dodane, jakby ktoś chciał sprawdzić, wygooglować to pewnie by się dało, może gdzieś na Emojipedii, ale no po prostu co jakiś czas nowe Emoji po prostu są dodawane, tak jak w najnowszym iOSie, tam znów doszły jakieś zerwane łańcuchy i jakieś grzybki, coś tam,
co jakiś czas po prostu coś nowego jest dodawane.
Bo wiecie pytanie, czy to też nie jest kwestia na przykład taka,
że jakieś smartfony na przykład, które tam są w użyciu przez tych kierowców
z różnych krajów powiedzmy, że dość dalek, odległe, kulturowych od nas
może na przykład nie wspierają tych Białych Lasek.
Ja nie wiem, ale tak się zastanawiam.
Może tak być z jednej strony, z drugiej strony.
Nie wiem czy to nie jest zmiana tylko polska,
bo Bolt nie jest firmą polską bynajmniej, bo jest dawniej Taxifa i jest firmą estońską w ogóle.
Natomiast o tej zmianie dowiadujemy się ze źródeł polskich i że tak powiem, nie wiem czy ta zmiana dotyczy wszędzie.
Bolt działa też w Wiedniu. Nie wpadł mi w ręce żaden artykuł, jakoby podobne zmiany były w Wiedniu.
Bo kontynuując, to że można dodać ikonki to jest jedno i to jest super, natomiast kontynuując dalej, kierowcy zostali przeszkoleni jak pomóc takiej osobie, która tą ikonkę ma wstawioną.
Znaczy ogólnie jak pomóc nam, ale wie o tym, że mamy taką sytuację przez to, że mamy wstawioną ikonkę.
No i też jeżeli jedziemy z psem przewodnikiem, to firma Bolt pokrywa koszty czyszczenia samochodu, gdyby taka potrzeba nastąpiła.
I to jest, myślę, bardzo ważna wiadomość, bo nasz Facebook, myślę, jak ktoś tak śledzi środowiskowo, jest pełen opowieści o tym, jak to kierowcy nie przyjmują osób z psami, albo odmawiają wprost, albo wręcz odjeżdżają.
Nie wiem, czy w Polsce już taka sytuacja się zdarzyła, ale ja z zagranicy otrzymuję dość dużo takich informacji, że kierowca po prostu podjeżdża, widzi, że jest osoba z psem i odjeżdża
bez jakiegokolwiek informowania, że coś się wydarzyło, że nawet nie powiedzień dobry nic.
Powiem więcej, to historia ze Stanów, tam podobnie działająca aplikacja też Lyft
miała kierowcę, który prowadził swój kanał na YouTubie.
I tenże pan pochwalił się nawet w filmiku na YouTubie, który po prostu się gdzieś tam viralowo rozszedł,
że on to poleca kierowcom Lyfta ogólnie ignorować osoby niewidome.
Widzisz niewidomego z przewodnikiem, odjeżdżasz, nie mówisz nic, on cię i tak nie zauważy,
a psa nie będziesz woził.
I no…
że ludzie się zdenerwowali
to jest nic nie powiedzieć.
Reakcja była.
Wideo wiem, że chyba zdjęli nawet.
Poszła skarga do YouTube’a.
Natomiast wiemy, że w Polsce też takie
sytuacje się dzieją, że osoby, które mają
psy przewodniki nie są przewożone
przejazdami. No i jednym z takich
powodów bardzo często jest właśnie też
obawa kierowcy, że a to pies
nabałagani, a zostawi sierść, a zostawi
łapami po brudzi coś tam no to tutaj firma się zdeklarowała że pokryje koszty
czyszczenia także jest pozytywny ruch na pewno.
No właśnie tylko tutaj to pytanie czemu oko czemu jakieś oko i pies jeszcze to się
nie łączy to trzeba wstawać dwie ikonki a tu można by nie zresztą emoji psa
przewodnika więc tak ja sobie z ciekawości też doszukałem się kiedy ta biała
razka doszła do Emoji i ona doszła jako część Emoji 12 i to był rok 2019.
No, czyli troszkę już jest z nami.
Już trochę tak.
No tak, tylko właśnie zastanawiam się czy, bo na przykład tak, jeżeli aplikacja jakaś,
powiedzmy Bolt jest, obsługuje Androida od wersji X, to pytanie czy w Androidzie w wersji
była ta emotka, bo jak nie, no to by trzeba było ograniczyć wtedy tylko przez te ikony, znaczy tak się zastanawiam, bo zdaje się, że te emoji muszą być w konkretnej wersji Androida, tudzież jakiegoś innego systemu, a że tu chodzi najprawdopodobniej o Androida, no bo co innego.
Aczkolwiek to też taka ciekawostka, też niektórzy producenci, nawet nie tylko telefonów, bo np.
Samsung też ma swój wygląd emoji, który siedzi tam różnie od tego googlowskiego, ale też producenci
aplikacji mogą to nadpisywać np.
Meta ma jeszcze swój inny widok na emoji, więc może być taka sytuacja, że np.
w Messengerze jakieś emoji będzie wyglądało nieco inaczej niż na telefonie Samsunga niż na
Pixelu np., więc to w ogóle jest ciekawy temat.
No może, w każdym razie jest coś takiego, że dobrze wiedzieć, że w bolcie symbolem osoby niewidomych nie jest człowiek z białą laską, tylko oko, a jest przewodnik, to jest chyba ta ikona, która jest czytana jako głowa psa.
No możliwe.
Także oko, głowa, psa to jest niewidomy z psem przewodnikiem i to trzeba wpisywać, żeby było wiadomo ze strony Bolta, że to jest człowiek niewidomy z psem przewodnikiem i w związku z tym nie powinno być problemów.
Natomiast druga wiadomość to jak już Boltem dojedziemy w Warszawie na lotnisko na przykład Chopina, no to tam trzeba by jakoś wezwać pomoc.
No i do tej pory, ja się dopiero dowiedziałem ostatnio rozmawiając zresztą z Maćkiem, przygotowując się do naszej audycji, że na lotnisku Chopina, jak i zresztą na modlinie rzekomo też, istnieje telefon do wzywania asysty, o czym nie miałem pojęcia.
To jest bardzo pozytywna wiadomość, to bardzo dobrze. Natomiast, no dobrze, nie wiemy gdzie znaleźć telefon, powiedzmy jesteśmy przy jakimś innym wejściu, coś jeszcze się innego dzieje.
No i co? No i jak możemy wezwać pomoc?
No i tutaj nam z pomocą przychodzi TOTOPOINT.
Z dumą możemy się już pochwalić naszą współpracą z Polskie Porty Lotnicze,
która zaowocowała montażem naszego systemu na lotnisku Chopina.
Znaczniki TOTOPOINT, poza oznaczeniem takich miejsc jak wejście do terminalu,
funkcja informacji lotniskowej czy toalety zostały zintegrowane z czterema pylonami SOS znajdującymi się na terenie lotniska tak aby osoby z niepełnosprawnością wzroku mogły z poziomu aplikacji aktywować połączenie z punktem informacji i dokonać zgłoszenia dotarcia na lotnisko bez konieczności szukania pylonu i klikania na nim przycisku.
przycisku.
Zintegrowane pylony znajdują się
przy stacji
SKM
w wejściu do
strefy
AB
w wejściu do strefy
D oraz na nitce
dojazdowej w pobliżu
przystanku lotnisko Chopina.
Odloty.
Nie mamy wątpliwości, że znaczniki
ułatwią osobom z niepełnosprawnością wzroku
samodzielne podróżowanie. Zobaczcie sami. No i tu jest zdjęć troszeczkę opisanych
tekstem alternatywnym. Fajnie. To jest akurat pozytywne, bo lotniska to są takie
miejsca, gdzie podobnie jak galerie handlowe bardzo łatwo jest się zgubić.
A z tą asystą no to też ona działa i rzeczywiście wtedy nie trzeba się o nic
martwić. Natomiast żeby tej asysty trafić, no to trzeba się czasem napocić,
nakombinować, napytać innych pasażerów albo jakoś jeszcze inaczej sobie radzić.
A tu będzie można z telefonem, z telefonu wezwać po prostu asystę.
Także no miłych lotów.
Tymczasem mamy pierwszy w dzisiejszym Tyflo Przeglądzie, ale pewnie nie ostatni telefon.
Michał jest z nami po drugiej stronie. Witaj Michale.
Witam serdecznie.
Słuchajcie, ja dzwonię z takimi informacjami,
ponieważ było w tych naszych cyfloprzeglądowych headach,
było, że o nowościach w produktach HumanWare,
no to ja też z pewną nowością, a mianowicie nawigacja piesza Stellar Trek
dostała bardzo dużą aktualizację
I zostały dodane do niej dwie bardzo ważne nowości.
Pierwsza to wykrywanie przejść dla pieszych.
A drugą nowością jest to, że nawigacja pokazuje nam,
gdzie są znaki, gdzie są przyciski stop przy przejściach.
Przyciski stop czy przyciski przejść, w sensie włączania świateł, przyciski świateł, tak?
Przyciski świateł, zgadza się.
Tak, no super. I to działa? Testowałeś to, wykrywa to?
Jeszcze powiem tak, jeszcze nie miałem okazji testować, dlatego że dzisiaj dopiero tą aktualizację pobrałem.
Ona musiała, dosłownie wczoraj sprawdzałem, czy aktualizacji nic nie było,
bo także dzisiaj dopiero to jest najnowszy krzyk mody.
Ale jakby jakby testuje na pewno na pewno podzielę się
wrażeniami jak to działa.
Nie usłyszeć żeby jeszcze tylko wykrywało czy zielone czy
czerwone.
O to to prawda to by było ciekawie ale nie wiem czy wiem
, że Stella Trek ma mieć bardzo dużo możliwości nie wiem
czy czasami czegoś takiego nie prowadzą zobaczymy.
Jakąś kamerkę chyba, ale…
Mam, mam, mam.
A to przepraszam, zwracam uwagę.
Teraz wykrywam znaki inaczej, nie, to jest ten nowy już, który ma.
Ten nowy, ten nowy, zgadzajcie.
Spoko.
A dwa, a dwa to
informacja, która mogła nam gdzieś umknąć,
mi też przyznaję, umknęła.
To już jest trochę czasu, nie wiem,
z miesiąc czy z dwa już ta nowość.
RIT is Evolved,
proszę was,
dostał aktualizację, w której
pojawiło się łączenie z wszelkimi możliwymi urządzeniami Bluetooth.
No to też super.
Bo nie miał tego, a Bluetooth miał, tylko jedyne co to można było podłączyć mu ten jego panel do Bluetoothem i nic poza tym,
a tutaj widać producent postanowił to bardzo ładnie rozbudować.
No to bardzo dobrze, że się urządzenie otworzyło na więcej różnych dodatkowych akcesoriów.
Zgadza się, bo to daje nam wiele różnych fajnych możliwości.
A trzecia sprawa to jest taka, że a propos tego transportu World Simulatora,
a mianowicie przeglądałem sobie stringi do niego i tam coś widziałem o kole jazdy
i ciekawe widziałem w wiadomości jak, jak prowadzić autobusy i mówię, i mówię, czy to jest jakaś przyszłość, czy…
Wiesz co, chyba bardziej tramwaje, jeżeli już to, to bardziej tramwaje i trollejbusy.
Ja bym powiedział tak, że to może być nawet jakaś przeszłość, bo w takiej pierwszej, pierwszej wersji beta
to pamiętam, że chyba nawet jakieś autobusy były, tylko to, to się prowadziło bardziej jak pociąg tak naprawdę,
bo ustawialiśmy szybkość i czasami gra mówiła, naciśnij strzałkę w lewo, żeby skręcić w lewo lub w prawo.
No i ostatecznie autor po prostu na razie się z tego wycofał, żeby skupić się na tym, żeby zrobić coś dobrze,
no bo żeby faktycznie zasymulować jazdę autobusem.
Bo wiecie, symulacja właśnie jazdy jakimś, powiedzmy takim okołosamochodowym pojazdem,
to jest zupełnie coś innego niż pociągiem, kiedy on ma jednak tor i nie trzeba się martwić chociażby o to, jak on ma jechać.
No to, no, podejrzewam, że w autobusach trzeba by cały system w ogóle
oceny odległości od jakichś ścian…
Jakaś fizyka w ogóle, czy cokolwiek.
Tak, to wszystko to by musiało zupełnie inaczej wyglądać.
No, to prawda, to prawda.
Więc dlatego ja tak, ja tak się zacząłem właśnie zastanawiać.
Mówię, mówię, kurczę, pewnie, pewnie, pewnie to zostało z takich
przeszłościowych.
Rzeczy które autor miał na myśli ale mówię mówię
dopytam przy okazji audycji a dwa a kolejna wiadomość to
troszeczkę widzę widzę przester w audycji jak jak
słucham na, głośnikach i mówię mówię zgłoszę to przy
okazji, że jest odrobinkę jakby przester i miałem się
spytać czy aby czasami tak miało być nadal jest przester
Z tego co ja słyszałem i z tego co sprawdzałem, to już wszystko jest w porządku.
A to chyba tak, bo wiem, że jak w pewnym momencie musiało się już ustabilizować, bo jakby najmniej miałem okazję słuchać.
Ale to mówisz o Transport World Simulatorze, tak?
Nie, nie, nie, mówię akurat o tyfloprzeglądzie, że jak był, to o tej naszej obecnej audycji.
To po prostu wydawało mi się jakby był lekki przester, ale jak jest dobrze to…
To znaczy nie wydaje mi się żeby ten przester jeszcze był, bo ja sprawdzałem i powinno być już wszystko w porządku.
Istotnie w trakcie audycji o TWSie przester był i to wcale nie taki lekki, nie wiem w ogóle jakim cudem się to zdarzyło, co tam się wydarzyło, system audio mi się najzwyczajniej w świecie musiał jakoś rozkalibrować, jest to bardzo dziwne, natomiast jeżeli, ja to jeszcze będę sprawdzał, wiem, że w Tyflo Radio jest wszystko w porządku, to na pewno.
Na YouTubie też, bo właśnie sobie teraz weszłem, żeby zobaczyć i u mnie też z tego, co słyszę, to jest okej.
O, dobra, super, super. To ten, to mówię tak, coś mnie się musiało chyba teraz wydawać, to ten.
Może w momencie, ale już się po prostu unormowało, także super.
do tego, to słuchajcie ode mnie, ode mnie aktualnie, to już wszystko.
Jeśli coś mnie się przypomni, dam na pewno znać.
To trzymajcie się, wszystkiego dobrego.
Dzięki Michale za telefon, pozdrawiamy.
Do usłyszenia.
Ale to nie koniec waszych wypowiedzi, bo mamy jeszcze wiadomość na Whatsappie.
Tym razem Milena nagrała do nas kilka słów.
Witajcie, z tej strony Milena.
Słuchajcie, mam do was takie pytanie. Do osób, które posiadają konto w Santander i używają aplikacji Santander Mobile, powiedzcie mi proszę, czy macie może taki problem, bo ja ostatnio musiałam odinstalować i zainstalować aplikację na nowo i w momencie kiedy ją, wiadomo, już aktywowałam,
nie mogę włączyć powiadomień typu alerty 24, te płatności blik i informacje odnośnie różnych przerw,
bo jeżeli te opcje zaznaczę i wyjdę potem z tych powiadomień, zamknę aplikację, ale po chwili, że do niej wejdę
I wejdę w te powiadomienia, no to okazuje się, że te wszystkie trzy opcje, które właśnie wymieniłam, są odznaczone.
Jestem ciekawa, czy ktoś się z takim problemem z Was spotkał.
Oczywiście już kontaktuję się z Santanderem, ale na razie, szczerze powiem, bez rezultatów.
Mało tego, powiem, że po prostu odnoszę wrażenie, że ta pomoc Santandera sugeruje ciągle mi,
że to problem jest u mnie w telefonie, a nie u nich.
No to tyle. Pozdrawiam.
Czy ktoś z was coś podpowie?
Tak, ja też parę tygodni temu musiałem sobie tą aplikację instalować od nowa
i z tego co pamiętam, u mnie tego problemu nie było.
Ja to powoli sobie włączyłem, przynajmniej właśnie te alerty
i teraz próbuję sobie przypomnieć, czy tam na tym ekranie,
bo na niektórych ekranach jest takie coś, że
kiedy już ten przełącznik włączymy.
Ja sobie zaraz do ustawień wejdę i jeszcze to zweryfikuję.
Natomiast nie jestem pewny czy tam na tym ekranie nie ma jeszcze jakiegoś przycisku
potwierdzić czy tam OK, które trzeba nacisnąć, a nie tylko po prostu wycofać się z
tego ekranu, więc wychodzimy w ustawienia, przełączamy odpowiedni przełącznik czy tam
przełączniki zależnie od tego co tam chcemy sobie włączyć.
No i później chyba tam trzeba jeszcze coś nacisnąć, żeby aplikacja tą informację
wysłała do serwera.
A ja sobie zaraz do tych ustawień jeszcze wejdę i zobaczę jak to tam wygląda.
A tymczasem odbierzmy jeszcze jeden telefon. Kto jest z nami?
Sylwester.
Witaj Sylwestrze. Słuchamy.
Ja mam, ja to Tomka, Tomasza.
Mam sprawę tego Luma.
I ja chyba zrezygnowałem z tych rejestratorów.
Bo ja wolę Olympusy. One są takie łatwiejsze.
ma nagrywanie mp3, a z tego co słyszałem,
zoomy tylko mają duawe nagrywanie.
To się zgadza w dodatku 32-bitowego, więc to nie jest taki sprzęt,
który można sobie, to znaczy te pliki trzeba praktycznie każdorazowo
jakoś normalizować, jakoś obrabiać, to się zgadza.
To raczej nie ma czegoś takiego, żeby to potem można było gdzieś wrzucić w internet.
Ja zrezygnowałem z tego, a ja mam jeszcze drugie pytanie do keyboardu, tam do syntezatorów.
Czy można takie z gatunków z lat 80-tych, 90-tych, klimaty muzyki dense i pokrewne,
i talerdzisko, żeby pisać do nich utwory, dźwięków?
Teoretycznie tak, tylko problem zazwyczaj polega na tym, że często te keyboardy, powiedzmy zwłaszcza tańsze, one mają takie brzmienia dość nieprofesjonalne powiem, bo może to tak ujmę.
Natomiast te syntezatory i keyboardy, które mają te brzmienia lepsze, to coraz częściej wyposażone są w ekran dotykowy, nie wiem na ile jest możliwa praca bez tego ekranu dotykowego lub na ile można się nauczyć tego co na tym ekranie jest, bo nie wiem.
I no widziałem rzeczywiście dedykowane na przykład style do konkretnych gatunków, takich właśnie starszych typu jakieś Italodisco, jakieś Eurodance.
A mnie interesuje właśnie pokrojone jeszcze takie gatunki jak House i Rap, znaczy Rap typu Rave właśnie z początku lat 90.
Trudno powiedzieć, no nie badałem tego w ten sposób, tych syntezatorów, natomiast no wydaje mi się, że…
A jeszcze, tak, a jeszcze czy jest możliwość pisania do nich utworów? Bo ja mam koleżankę…
W jakim sensie?
W jakim sensie pisanie utworów?
Ale w jakim sensie pisanie utworów? No bo…
do tym wieku, jakiś nowy, a ona lubi te stare te klimaty.
No tak, tylko w jakim sensie pisania utworów?
No bo takie, zwłaszcza keyboardy, no to właśnie są to co się kiedyś nazywały rytmami, teraz stylami,
czyli coś co ma 1, 2, 3 intra konkretne, następnie kilka wersji z tego stylu,
kilka tych tak zwanych przejść, kilka wersji outro, no i już.
Natomiast jeżeli chciałby się coś tworzyć od zera,
no to już trzeba by tworzyć rzeczywiście dźwięk po dźwięku,
no i tworzenie tego na…
No właśnie, bo mnie interesuje, bo ona ma dużo tekstów napisanych.
Żeby tworzyć to od zera?
Tak. Dużo ma tekstów.
No to jeżeli chodzi o tworzenie od zera,
a tak rzeczywiście w takim stylu, no to trzeba by to tworzyć na, no albo, to znaczy tak, generalnie syntezatory sprzętowe są w dość mocnym odwrocie,
dlatego że teraz wtyczki VST i generalnie komputer, no jest na tyle atrakcyjny, że bardzo wiele osób w zasadzie rezygnuje z syntezatorów sprzętowych.
I te syntezatory sprzętowe są teraz głównie tworzone w jakichś ściśle określonych celach, czy w zasadzie dość ściśle określonych celów, czy sposobów tworzenia muzyki.
I teraz już ciężko znaleźć taką klasyczną stację roboczą, czyli takie urządzenie, które bez komputera można było tworzyć muzykę od początku do końca,
które jest takim dużym urządzeniem z dobrej jakością dźwięku i tak dalej i tak dalej.
Kilka jeszcze się tego ostało, natomiast no to są raczej jakieś, obawiam się trochę końcówki.
A ja chciałem właśnie, no ja chciałem, żeby tak do komputera podłączyć.
Więc albo komputer, więc albo komputer.
A jak, komputer, jak, to co, program trzeba mieć do tego, czyli?
Tak, no są programy, z tym, że one są najczęściej…
Ale jakieś klawisze powinny być.
No tak, to znaczy są klawiatury, tylko jest jedna rzecz, te programy, te które są programami takimi bardziej poważnymi do tego, są po pierwsze praktycznie w stu procentach niespolszczone,
Po drugie, oprócz programu trzeba mieć jakiś instrument wirtualny, który na pewno nie będzie spolszczony, który właśnie służy do tego i są instrumenty wirtualne, które mają udawać te brzmienia właśnie z lat 80-tych, 90-tych, są dedykowane rozszerzenia dla instrumentów do konkretnego typu muzyki, z tym, że to nie są instrumenty darmowe.
Taki instrument w podstawie jej wersji, który jest jakby dedykowany właśnie do tworzenia tego typu muzyki, on jest stosunkowo prosty, są dwa takie instrumenty, które stanowią dla siebie absolutną konkurencję.
One, no, z naszego punktu widzenia nie ruszają się praktycznie niczym, one są dokładnie jakby w takich samych, w taki sam sposób tworzone, pozwalają nam mniej więcej to samo.
Oczywiście, no wiadomo, jeden ma taki efekt, drugi ma trochę inny efekt i tak dalej, i tak dalej, ale są bardzo jakby podobne koncepcyjnie.
one kosztują około 200 dolarów, albo 200 euro, już nie pamiętam, za wersję podstawową.
Plus kilkadziesiąt euro za konkretne rozszerzenia.
I są rzeczywiście rozszerzenia dla muzyki z lat 80-tych, 90-tych.
I to są takie gotowce, które można wykorzystać właśnie do budowania, do robienia muzyki.
I oprócz tego można oczywiście tworzyć muzykę z lat 80-tych, 90-tych na darmowych samplach.
Tylko, że tworzenie na takich darmowych samplach to bardzo często jest sporo roboty w wyszukiwanie te sample.
To jest sporo potem kombinowania jak te sample potem załadować do programu, jak z tych sampli zrobić coś rzeczywiście z epoki,
jakie efekty dodać, jak to wszystko zaaranżować i tak dalej, i tak dalej i obawiam się, że jeżeli ktoś nie siedzi trochę w temacie tworzenia muzyki, no to będzie miał z tym problem.
Ja bym dodał, że jeżeli Cię Sylwestrze interesuje właśnie to, jak ludzie rekonstruują sobie na przykład różne utwory z tamtego okresu i ile czasem trzeba się narobić, żeby pewne efekty osiągnąć, a potem koniec końców i tak sięga po jakieś gotowe sample, no to na 0db.pl na tym kanale na YouTubie jest sporo tych różnych rekonstrukcji.
To jest chyba jedyny polski kanał na ten temat, o ile mi wiadomo.
Zresztą tam człowiek też głównie korzysta z programów, żeby nie było komercyjnych.
Dokładnie.
I z instrumentów komercyjnych, to nawet nie są darmowe rzeczy, na darmowe byłoby to jeszcze ciężej zrobić.
Bo moja, tak, bo moja koleżanka tam też jest w tym ośrodku dla niewidomych i ona ma…
Żeby to zrobić dobrze, to nie jest taka prosta sprawa, przynajmniej na razie. Być może, za jakiś czas pojawi się jakaś może sztuczna inteligencja, choć nie wiem, ale no póki co, póki co są z tym problemy i podejrzewam, że raczej, to znaczy, no jakby w zależności od tego oczywiście, od czego, czego oczekuje ta koleżanka.
nie mniej powoduje, że…
Tak, tak, bo ona ma sensyzator,
tylko, że jej tam
te chłopaki uszkodzili
i teraz nie wiadomo, co zrobić.
No bo wiecie, no bo
to wszystko zależy od tego,
jaka jakość jest oczekiwana, no bo
na jakimś tam
pierwszym lepszym z brzegu kibordzie
coś się stworzyć da, no tylko
właśnie kwestia z tego, czego,
jakiej jakości oczekuje ta koleżanka,
żanka, ile może w to zainwestować i pieniędzy, i czasu, co dość ważne, dlatego, że no ciężko jest zrobić…
Ona miała taki klasyczny syncyzator. Znaczy kipu taki klasyczny miała.
No mówię, to nie ma takiej prostej odpowiedzi na to pytanie.
No właśnie.
Jak to zrobić?
Nie wiem też jak to zrobić, bo tam będzie musiała kogoś jeszcze pytać.
Dobrze Sylwestra, ale my raczej tej audycji nie naprawimy tego syntezatora. Czy masz jeszcze jakieś pytania?
Dlatego dziś odzwonię, bo nie wiem co z tym Whatsappem będzie. Nie odpierałem jeszcze.
A ten FaceTime chciałem się zapytać to jak on działa?
Ale to jest na iOS, więc jeżeli masz Androida, no to nie zadziała.
No niestety nie zadziała.
To będzie koniec. Dobra.
Ok.
To na razie zostawię wam. Jak spróbuję coś na Whatsappie, to spróbuję dzisiaj. Nie wiem ile będziecie. Zobaczymy.
Sami nie wiemy.
No.
To wszystko zależy od słuchaczy też.
Tak, tak, ja mogę się odezwieć dopiero po 22.30 jak będziecie.
Dobrze Sylwestrze, dziękujemy Ci bardzo przynajmniej na razie za telefon.
Mamy tu widzę jeszcze wiadomości, które do nas wysyłacie.
Jeszcze odsłuchajmy teraz może wiadomości od Mileny, bo to pewnie w tej samej sprawie.
Tak, ja też będę miał zaraz też komentarz, ale to myślę, że po wiadomości zobaczymy.
Posłuchajmy tej wiadomości, teraz jeszcze tylko sobie tu sprawdzę, która to będzie,
to ta już była, no to będzie teraz ta wiadomość.
Nie, nie, nie. Tam żadnego przemocznika do zatwierdzenia tych operacji nie ma.
Więc nie ma takiego czegoś.
No więc tutaj powiem, że nie.
Właśnie nie ma takiego czego zastosować, zapisać te zmiany, właśnie o to chodzi, że nie.
No to ja teraz powiem co jest, bo sobie w międzyczasie odwiedziłem ten ekran do stosowania powiadomień
i tam to jest tak genialnie zrobione, że obok każdego typu powiadomienia, tam generalnie mamy chyba 3 albo 4 przełączniki.
Pierwszy to jest do takich ogólnych powiadomień, kiedy musimy jakąś autoryzację wykonać.
Drugi jest tam do alertów, czyli jakiejś płatności, jakieś wpływy na konto itd.
Trzeci to są alerty blik, a czwarty to są właśnie informacje o przerwach i tego typu rzeczy.
I koło każdego z tych typów elementów mamy taki krótki opis tekstowy
i przycisk zaetykietowano jako ikon off switch, czyli jakby ikonka mówi nam, że jest coś wyłączone.
Natomiast to co tam pisze na tej ikonce właściwie nas nie interesuje,
bo ten przycisk może być albo po prostu czytany jako przycisk i to znaczy, że
powiadomienia dla danego typu alertów są wyłączone, a jeśli voiceover nam przed
tym powie, że przycisk jest zaznaczony, no to znaczy, że powiadomienia są włączone.
Więc nawet jeśli on powie, że ten przycisk off jest zaznaczony, to on off jak
najbardziej nie jest, tylko wtedy te powiadomienia są faktycznie włączone.
Czemu to nie są po prostu przełączniki takie zwykłe, które mówią nam, że są
są włączone albo wyłączone, nie wiem, no to jest pewnie kolejne jakieś niedociągnięcie tej
nowej wersji aplikacji.
Natomiast może tutaj właśnie chodzi o to, że po prostu nie wiedząc o tym sobie ta
powiadomienia odznaczyłaś.
Miejmy nadzieję, że o to chodzi.
Wejdź sobie do tego ekranu, upewnij się, że na wszystkich tych przyciskach VoiceOver
mówi zaznaczony przycisk OFF i to powinno znaczyć, że faktycznie ten typ alertów jest
włączony. Najlepiej wtedy wyjść z tego ekranu przyciskiem wróć w lewym
górnym rogu, żeby ewentualnie aplikacja nam daną informację do serwera znów zapisała,
zanim aplikację zminimalizujesz, no i miejmy nadzieję, że to zadziała.
Ewentualnie może to też być kwestia skonfigurowania alertów na stronie,
bo konkretne typy alertów to się na stronie konfiguruje, natomiast strzelam,
że jeśli to działało wcześniej, no to po prostu gdzieś może być właśnie kwestia
tego. Jeśli te przyciski faktycznie są zaznaczone, no to niestety może być coś
po stronie serwera i no wtedy po prostu trzeba
niestety będzie użerać się po prostu ze wsparciem technicznym
swoją drogą warto im zgłosić chyba żeby też te przyciski
po prostu były lepiej zaetykietowane bo tam też
po prostu faktycznie jest to słabo zrobione
Odbierzmy jeszcze może jeden telefon
zanim przejdziemy do bieżących tematów
Kto jest z nami po drugiej stronie?
Dobry wieczór przyjaciele, dobry wieczór z tej strony Roberto Lobino
Cześć Robert.
Z Pragi jak większość wie.
Teraz z Poznania.
Cały czas.
I mam kilka komentarzy.
Pawle jesteś tam?
Pawle jesteś tam, cóż tam.
Cześć Paweł, cześć wam wszystkim.
Dobra, Bolt.
I parę spostrzeżeń
a propos tego co mówiłeś o tym oku
i co ustalaliśmy prywatnie.
Bo wczoraj jechałem dwa razy Boltem.
Muszę niestety tak trochę zdementować ten artykuł na Spiderspobie.
To jest tak, że to się wydaje, robi się PR, a potem wyjdzie jak zwykle.
Otóż, znaczy najpierw tak, bo zastanawialiśmy się,
dlaczego oko, a nie mężczyzna z białą laską.
Od jednego kierowcy, i teraz bardzo ważna rzecz,
wczoraj jechałem dwa razy Boltem, dwa razy z kierowcą Polakiem.
Także to był ktoś, kto język zna i tak dalej i jakby jest obeznany, a nie jakiś niestety się zdarzał na przykład kierowcy z Gruzji, którzy jeżdżą od dwóch, trzech dni i w ogóle nic nie wiedzą.
Natomiast Gruzję podałem jako przykładowy kraj, żeby nie było. To może być tak samo Ameryka Łacińska albo cokolwiek innego.
W każdym razie kierowcy obaj powiedzieli mi, że po pierwsze to oko jest dla widzącego
lepiej widoczne niż ikonka mężczyzny z białą laską, no bo to jest jednak emot ikonka,
więc ona ma jakąś tam określoną przestrzeń na ekranie, no i kierowca widzi to imię
przez parę sekund zatwierdzając przejazd i to oko po prostu przez to, że rzecz oko jest mniejsza niż mężczyzna, który jeszcze ma białą laskę,
no to siłą rzeczy to oko tak jakby jest bardziej widoczne. Szkoda, że nie ma żadnego przekreślonego oka.
W każdym razie jeszcze w dodatku ten jeden kierowca mi powiedział, że mężczyzna z białą laską to tam w sumie wygląda raczej jak mężczyzna, który wyprowadza psa. Nie ma tam tego psa, ale ponoć to ta, która wygląda. Nie wiem o co chodzi.
Czyli to jest po prostu nie taki jednoznaczny na pierwszy rzut oka symbol.
Tak, niestety. Nie wiem jak sama biała laska.
Powody wizualne po prostu.
Tak, nie wiem jak sama biała laska.
Tego nie wiem.
Mogę spróbować samą białą laskę komuś wysłać.
Aczkolwiek ten kierowca, który mi mówił
bardziej o tych powodach wizualnych,
no to on kiedyś już mnie wiózł na innej aplikacji
i wczoraj, i zarówno wczoraj jak i wtedy
się nie skafnął w ogóle, że jestem niewidomy.
On myślał, że chodzę o kulach,
a mam oczy zamknięte.
Po mnie akurat widać, że nie widzę.
Także no nie wiem, co to miało być.
I ten kierowca mówi, a tak, bo ja tam widziałem taką plamę, coś tam.
Ale to przechodzę już do drugiej rzeczy, że ja mu mówiłem, no tak,
bo przecież jest informacja tak, że kierowców przeszkolonych
on się zaczął śmiać i mówi, wie pan jak te szkolenia wyglądają?
To są jakieś powiadomienia, wiadomości, które nam przychodzą,
a ja i tak tego nie czytam.
Tak jak Bolt traktuje nieuczciwie kierowców, tak ja i też nie mam
powodu, żeby ich traktować uczciwie, bo oni chcą tylko kasę zarabiać i nie wiadomo co.
To znaczy, to jest ciekawe co mówisz, bo kiedyś mi się zdarzyło, znaczy no mi zdarzyło, no na
reddicie Air Polska kiedyś ktoś wycieknął, że tak powiem, zrzuty ekranu z slajdów takich
konkretnych już całych chyba slajdów czy materiałów szkoleniowych rozbudowanych dla
kierowców Bolta.
Wtedy akurat chodziło o sytuację, która zresztą medialnie się rozbiła dość głośnym echem o przewożenie kobiet i to, że kobiety nie zawsze się czują bezpiecznie w tego typu przejazdach na autobusie.
Tak, tak, tak.
Były slajdy i wokół tych slajdów oczywiście cała burzliwa dyskusja, z których np. wynikało i to były całe takie, wiesz, na kilka zdań, gdzie tam było co wolno, co nie wolno, że np. kierowca nie powinien pytać osoby o cel podróży.
czy w takim sensie, że a to pani jedzie do pracy, do cioci, czy do koleżanki.
Taki cel, bo to jaki ma adres podwóz to widzi w apce.
No i takie ogólnie zagadywanie ludzi jakieś o prywatne sprawy i tak dalej, że nie
powinno być, więc to wyglądało na to, że to były slajdy
takie całe poskreenowane, jeden screen po drugim, bo nawet rozczytywałem te screeny
jakimś seeing AI, tylko to było chyba szkolenie dla nowych kierowców,
więc możliwe, że jak zaczynasz z nimi, to musisz przejść trochę tak jak się w
Niektórych, ogólnie w pracy przechodzi jakieś szkolenia BHP i takie różne obowiązkowe, to może tam jest to takie powitalne, obowiązkowe dla kierowców.
Pytanie, czy to szkolenie z zakresu pomocy pasażerom z dysfunkcją wzroku jest częścią też tego dla nowych i czy to rzeczywiście tak wygląda, czy coś się może zmieniło od czasu, kiedy ja te screeny widziałem.
Natomiast pytanie, jak to wygląda u kierowców już obecnych, którzy mają się doszkalać.
Może rzeczywiście im się posyła powiadomienia po prostu i to są dobre praktyki ale musisz tego zaliczyć jako test na przykład.
Tak pamiętajmy też że Bolt w sumie i Uber też i Free Now nie wiem jak OptiTaxi ale te trzy na pewno aplikacje działają w sumie przez partnerów.
I czyli kierowca może być firma która ma jakąś flotę i ci kierowcy są tak jakby pod tą firmą i pytanie w sumie ile oni mają tam do powiedzenia.
No ale.
I jak bardzo coś albo coś się
wydarzyło w Warszawie, bo osoby
niewidome, które się wypowiadały,
które wypowiedziły w artykule,
są ewidentnie z Warszawy.
Także tak, to prawda.
Możliwe, że na razie to dotyczy
Warszawy. Ja wczoraj wieczorem
napisałem na wsparcie Bolta
jeszcze raz, jak powinienem to
rozumieć.
No i ich odpowiedź brzmiała, że
nadal jakby prowadzą te kampanie,
że jeszcze cały
czas szkolimy kierowców,
coś tam.
No także prawdopodobnie
Prawdopodobnie jest to wiadomość, ja bym zachęcił właśnie tutaj słuchaczy,
korzystajcie z tego bolta, ja mam promocję akurat, więc korzystam teraz.
I uświadamiajcie tych kierowców, wstawcie sobie tę emotikonkę oka,
albo oka i pieska i uświadamiajcie kierowców, zawsze można też,
bo już jest tłumacz zbudowany, można na chat’cie napisać,
ja tak robię już tak po prostu, odruchowo, albo też jest coś takiego jak
uwaga do odbioru przed zamówieniem, to ja tam piszę na przykład
dzień dobry, jestem niewidomy, będę stał z białą laską pod szabanem
i tyle. I oni sobie to mogą przetłumaczyć i jeszcze mi się nie zdarzyło,
żeby nawet wtedy często kierowcy mi pomagają, zarówno w Polsce,
jak i w czekach, że kierowca wyjdzie z samochodu, zapyta i tak dalej.
Także to jest jedna rzecz, ale ja Wam chciałem jeszcze o czym innym powiedzieć.
Nie wiem czy, nie wiem komu z Was wysłać linka, bo nie ukrywam,
no chciałbym, żeby to jakoś zostało dołączone do listy tutaj linków.
Gdybyś mógł, Roberto, na naszego WhatsAppa po prostu
Tyflo podcastowego wrzucić, to by było super.
Będą dwa linki, będzie Facebook i będzie strona Meetup.
Bo o co chodzi? Za dwa tygodnie
się odbędzie w Poznaniu w biurze Allegro
na Wierzbieńcicach, zaraz powiem dokładnie adres.
Takie spotkanie, które jest tam prowadzone już przez parę miesięcy przez taką firmę
Snowdog, która teraz do Uniwersytetu Adama Mickiewicza jeszcze
że robiła aplikacja do nawigacji po budynkach uniwersytetu z taką bazą map.
Aplikacja się nazywa UAM Go i już jest też do pobrania.
To spotkanie się nazywa Accessibility Meetup
i robią to ludzie z tej firmy.
Teraz chyba to przejdzie do już konkretnych ludzi,
bo sama firma się nie będzie tym zajmować,
ale ci ludzie dalej chcą to robić.
i już mieli spotkania poświęcone czy to niewidomym,
czy to np. właśnie niesłyszącym,
czy to osobom neuroróżnorodnym i jeszcze różnym innym aspektom.
A teraz takim tematem przewodnim będzie język
i zaproszono mnie tam, żebym coś opowiedział o Braille’u.
O tym, po co Braille jest dzisiaj w czasach mówiących telefonów.
Tak się nazywa prezentacja.
No i prezentacja to tytuł tej mojej prelekcji.
Powiedziałeś, że nie wiem, jak to technicznie ujmę.
W każdym razie spotkanie odbędzie się za dwa tygodnie we wtorek.
Dzisiaj mamy 13, więc to będzie 26.
I adres to jest przy ulicy Wierzbieńcice 1B w Poznaniu
od godziny 18.26 marca.
Co prawda, tam chyba przychodzą głównie ludzie tacy związani gdzieś tam z informatyką,
z dostępnością od różnych stron, więc pytanie na ile to by było ciekawe
np. dla takiego przeciętnego słuchacza tyfloprzeglądu,
ale mówię Wam o tym, bo myślę, że jest to fajna inicjatywa
I mówię wam to też dlatego, że myślę, że ktoś z tej firmy prędzej czy później się pojawi w Tyflo Radiu.
Ja już się tym zajmę, bo bardzo bym chciał. Oni się tam zajmują dostępnością właśnie od różnych stron, także…
Ja myślę, Roberto, że akurat dla słuchaczy Tyflo Przeglądu to temat jest jak najbardziej ciekawy, bo my bardzo często zajmujemy się technologią.
Więc te wnioski, które przedstawisz, to myślę, że mogłyby być interesujące.
A jak będzie jeszcze na przykład parę osób gdzieś tam niewidomych, gdyby się tak zdarzyło, że będzie, to w ogóle byłoby super,
bo może się na przykład okazać, że ktoś będzie miał różne spojrzenie od Ciebie, bo wiadomo, że jak dotykamy tematu brajla i technologii nowoczesnych,
to tu ile ludzi, tyle poglądów i one naprawdę idą bardzo szeroko od takich ze skrajności w skrajność, tak?
z jednej strony, że w ogóle po co ten brail, skoro jest synteza mowy i w zasadzie brail to jest w ogóle niepotrzebny, to jest jakaś przestarzała technologia,
po drugą skrajność, która mówi o tym, że jak braila ludzie nie znają, to są w ogóle analfabetami, w brailu to w zasadzie wszystko powinno być i wszystko się powinno w brailu czytać.
Ani jedno, ani drugie podejście tak naprawdę, jedno z przyczyn technicznych, a drugie z przyczyn praktycznych, mam wrażenie, że nie jest podejściem dobrym.
Natomiast tu rzeczywiście mogłyby takie ciekawe wnioski wypłynąć z takiej dyskusji.
Ja myślę, że do dziś brail jest jedynym sposobem jak niewidomy może się nauczyć pisowni danego języka.
To akurat, nieważne jak potem z niego korzysta, ale innej możliwości myślę, że nie ma po prostu i już.
Robert, a czy to będzie jakoś transmitowane online, czy to jest tylko wydarzenie?
Nie, możliwe, że będzie nagrane potem, ale kurcze, nie wiem, nie pytałem.
Na pewno będzie tam nagłośnienie, jest to, o właśnie, jest to tłumaczony na polski język migowy.
też i tym drugim prelegentem, drugą prezentacją będą mieć
przedstawiciele firmy, która się nazywa Jasnopis i to jest firma,
która gdzieś tam się zajmuje dostosowywaniem języka różnych
treści czy to marketingowych, informacyjnych, jakichkolwiek
do wszystkich. Na przykład właśnie, żeby nie było tak zwanego
marketingowego bełkotu, czyli tego takiego języka reklamy,
który czasami jest bardzo złożony, żeby przekaz był zawsze krótki,
jasny, zwięzły, tak? Więc to jest też, myślę, ciekawe,
jakby ciekawa inicjatywa i myślę, że bardzo dobra.
No i jeśli jesteście zainteresowani, to zapraszam.
Nie ma nic o wejściówkach, więc podejrzewam, że to jest jakby wstęp za darmo,
ale kurczę, nie znalazłem takiej informacji, może oni jeszcze coś dodadzą.
Na pewno jest to, tak jak powiedziałem, 26 marca, godzina 18,
ulica Wierzbieńczyce 1B, biuro Allegro w Poznaniu
i na stronie, która będzie w komentarzu, na stronie meetup.com to jest ta platforma, na której oni to organizują,
jest opis jak tam dojść. No nie do końca pod niewidomego, ale jest i jest też napisane, że jest możliwość asysty
z przystanków pobliskich, tramwajowych, czyli w Bięcice albo Świętego Czesława.
Więc podejrzewam, że jakby się z nimi
skontaktować, no to
jakaś tam opcja
asysty by była.
No to
w takim razie powodzenia i pamiętaj, że
to nie jest język Braila, tylko
alfabet.
Oczywiście.
Język Braila to francuski.
Tak jest.
Tak jest, tak jest, tak jest.
No.
Także tyle.
Gdyby mi się jeszcze coś przypomniało, bo mam wrażenie, że o czymś zapomniałem im opowiedzieć, jak chodzi o ten meetup, ale myślę, że mogę się odesłać po prostu na stronę, a link będzie w komentarzach, tak?
Jasne. To podrzuć Roberto, a to na pewno wkleimy w nasze notatki, które będą potem umieszczone również pod audycją.
Dobrze.
Dzięki za telefon.
Dziękuję w takim razie i życzę miłego wieczoru.
Do usłyszenia.
Wzajemnie, pa. Jeszcze ja dodam coś a propos tych różnych, różnych rzeczy związanych z Unicodem, jeżeli chodzi o to co ja ostatnio miałem, jeżeli chodzi o kwestie Unicodowe, to wyobraźcie sobie ostatnio dostałem takie pytanie, że słuchaj jest jakiś taki problem,
że mam tekst, w którym polskie znaki, program odczytu ekranu, czyta w jakiś dziwny sposób,
natomiast one wyświetlają się prawidłowo, czyli osoba widząca widzi wszystko dobrze,
natomiast osoba niewidoma, i to istotnie potwierdzam, widzi coś zupełnie nie takiego,
po prostu te polskie znaczki nie były czytane albo były czytane po prostu źle.
I wyobraźcie sobie, akurat tę rzecz udało mi się rozwiązać z użyciem czata GPT,
bo nawet nie byłem w stanie, po prostu nawet kopiując sobie taki znak,
który był źle czytany, odczytać kodu tego znaku.
I to mnie jakoś zdziwiło. O co tutaj chodzi? Co tu jest za problem?
Okazało się, że niektóre edytory czy to kodu, czy to tekstu
zapisują nasze polskie znaki narodowe, na przykład RZ, jako dwuznak.
To znaczy, zapisują literkę Z i dodają kropkę, która ma tam jakiś, taką górną kropkę,
która ma tam jakiś konkretny symbol w Unicodzie.
I to jest tak, jak łączymy na przykład niektóre emotikony, czy kiedyś było tak, że się łączyło,
że trzeba było połączyć na przykład mężczyznę i białą laskę,
i wtedy powstawała jedna emotikona mężczyzna z białą laską, zdaje się, że tak kiedyś było.
I tak czasem, z jakiegoś dziwnego, nieznanego mi powodu,
prawdopodobnie wynikającego z zaszłości historycznych,
niektóre programy, w sumie nie wiem jakie,
ale niektóre programy właśnie w ten sposób tworzą polskie znaki.
I teraz, jeżeli ktoś to widzi, to jest wszystko w porządku,
bo ten tekst jest najzwyczajniej w świecie, no, do odczytania.
Natomiast z czytnikiem ekranu tu zaczynają się schody, więc jeżeli coś takiego kiedyś napotkacie, no to wyjaśnienie dla tych wszystkich, którzy się zastanawiają, czy ktoś serio wpuszcza takie teksty w sieci, nie widzi, że one są źle zakodowane, że są jakieś krzaki, to prawdopodobnie tych krzaków ta osoba w ogóle nie widzi.
My wręcz przeciwnie.
Ciekawe co by pokazał dodatek charakter info do NVDA.
Wiesz co, właśnie, no bo przecież można też zrobić tak, że sobie jesteśmy na danym znaku i on powinien nam odczytać kod tego znaku.
Tam chyba dwójka naciśnięta kilka razy.
Tak, trzy razy.
Tak, trzy razy. I właśnie na takich znakach to po prostu nie czyta nic.
Ale nie, bo w dodatek pokazuje ci całą tabelkę i tam masz wartość ASCII, wartość UNICODE, nazwa znaku według słownika i tak dalej, taki bardziej HTML-owy widoczek.
To wydaje mi się, że to trzeba by było jeszcze to posprawdzać, natomiast tak standardowo z NVDA to my nie jesteśmy w stanie nawet odczytać tego kodu, tego znaku.
Bo po prostu on się na tym wywala i nie czyta absolutnie nic, jest cisza.
A z ciekawości próbowałeś na iPhonie jak tam coś się czytało?
Wiesz co, on właśnie na iPhonie jakoś to, jakoś to chyba czytał lepiej, albo kiedy chodziłem znak po znaku to on to jakoś, na iPhonie byłem w stanie lepiej się zorientować, że tu coś jest nie tak z tym znakiem, ale na Windowsie to było zdecydowanie gorzej, to już teraz nie pamiętam jak bym to porównał jedno z drugim.
Inna rzecz, że to chyba właśnie dość częsta przypadłość jakichś Macowych edytorów, że takie rzeczy robią, bo tu chodzi po prostu o tę graficzną formę wyświetlania.
Tak. To co, przechodzimy do newsa kolejnego i tu proponuję, bo teraz mamy zapisany maraton, ale w związku z tym, że jakoś u nas się tak zrobiło, że te maratony newsowe raczej dajemy na koniec,
więc to może proponuję, żebyśmy powiedzieli troszeczkę o macOSie, bo wyszła nowa wersja macOS, a z tyłu macOS 14.4, co nowego Piotrze?
Dokładnie, no pamiętacie w zeszłym tygodniu mówiliśmy o tym, że pojawił się iOS 17.4 i to był chyba tylko iOS, chyba też iPadOS w tym dniu wyszedł.
Natomiast pozostałe systemy Apple zostały zaktualizowane dopiero właśnie wczoraj.
Czy tam przez wczoraj właściwie nawet systemy właśnie macOS 14.4, ale też się nowe watchOS i dvOS pokazały.
Tam generalnie są po prostu poprawki błędów.
Jeśli chodzi o macOS App, no to to co jest oficjalnie napisane w notkach to są podobne rzeczy do tego co mówiliśmy w iOSie.
Czyli mamy te nowe emoji, no gdzieś cały czas kręcimy się wokół Unicode’a jakoś, czyli to są te same emoji, o których mówiłem w przypadku iOS’a, czyli to jest grzybek, to jest feniks, to jest limonka, zerwany łańcuch i kręcące głowy, ale poza tym też mamy transkrypty w podcastach, no bo oczywiście na Machu aplikacja podcastów też jest.
Mamy aktualizacje dla tych, którzy korzystają z iMessage dla film, co akurat tutaj nam się raczej pewnie nie przyda.
I pasek ulubionych w Safari, bo taki pasek osoby widzące mogą sobie dodać i obserwować go.
Można teraz ustawić tak, żeby nie wyświetlał tytułów stron, tylko same ikonki, dzięki czemu pewnie ten pasek po prostu jest taki bardziej kompaktowy.
Natomiast jeśli chodzi o voice overa, no to trochę się tutaj pozmieniało, trochę na plus, trochę na minus.
Jeśli chodzi o zmiany na plus, coś co ucieszyło bardzo mnie osobiście, to zmiana związana z szybką nawigacją.
Bo w Mk14, kiedy on się pojawił, ten tryb szybkiej nawigacji, który wcześniej włączaliśmy sobie naciskami strzałki w lewo, w prawo razem,
został rozdzielony na tak jakby dwa osobne tryby.
Jednym trybem była nawigacja z czałkami
i właśnie ją się włączało z czałkami lewo, prawo
i ona tylko kontrolowała to, no właśnie co się dzieje,
kiedy naciskamy z czałki.
Więc dałem z czałka w prawo następny,
na moment w lewo poprzedni,
z czałka w górę i w dół nacisnięta razem aktywuje i tak dalej.
Ale nie miała wpływu na to, co robią litery,
czyli nawigację po nagłówkach i tak dalej.
Do tego był osobny skrót,
mianowicie to było W i Q, albo Shift Q.
teraz żebym nie pomylił ale chyba to było Q
mniej więcej to były dwa osobne skróty
niektórym osobom się to podobało
niektórym niekoniecznie
ja generalnie jeśli z tego korzystałem
na przykład w internecie no to chciałem
oba te tryby mieć włączone jednocześnie
no generalnie po prostu trzeba było
wtedy te dwa skróty nacisnąć
czyli najpierw strzałki lewo-prawo potem jeszcze w Q
teraz w tej najnowszej wersji
można sobie to przewrócić
do stanu takiego jak to było w poprzednich wersjach macOS-a, wchodzimy sobie do narzędzia voiceover
z sekcji komandory i tam zakładka szybkiej nawigacji, pojawił się nowy taki przycisk menu i można sobie
wybrać co się stanie kiedy naciśniemy ściałki lewo i prawo, bo możemy teraz zdecydować, że ma się
nie dziać nic, ma się przełączyć tylko tryb nawigacji ściałkami jak poprzednio, czy ma się
przełączyć zarówno tryb nawigacji ściałkami jak i literami, który tak jak wcześniej działał
gdzieś tylko na stronach internetowych,
teraz przypominam, od Mac OS XIV będzie nam
działał we wszystkich wersjach.
Tutaj mamy ostrzeżenie, że
no właśnie kiedy mamy ten tryb włączony,
nawet jeśli mamy włączone pole w oporu,
żeby voiceover nam pozwalał pisać
na przykład w foliach tekstowych,
kiedy ten tryb przepięknej nawigacji
jest włączony, no to litery,
kiedy na przykład będziemy nawigować
po jakiejś saberce, na przykład finderze, czy w jakiejś innej aplikacji
no nawigacja literami nie będzie działać, chyba że tą szybką nawigację wyłączymy.
No czyli generalnie tak jak to było wcześniej, no chyba że jesteśmy w internecie
to raczej sobie myślę warto ten typ wyłączyć ewentualnie w jakiejś aplikacji,
gdzie faktycznie chcemy po przyciskach czy innych typach kontrolek po prostu
szybko skrótami nawigować.
Jest też błąd z aplikacją słownika, kiedy sobie naciskamy
Woe i Home, w aplikacji słownik to voiceover nam nie zawsze przechodzi
prawidłowo na pasek narzędzi, który na górze tego okna jest. Natomiast ze
wszystkich skrótów, które są w pasku narzędzi są też skróty klawiszowe,
więc myślę, że to jest coś, co się generalnie na szczęście będzie dało obejść.
Natomiast ludzie w komentarzach piszą o innych rzeczach, które się dziś
pozmieniały. Jedną rzecz, którą ja zauważyłem, gdybyście okazało, że po
instalacji tej nowej wersji Mac OS-a
i naciskacie WOM, żeby przejść sobie na pasek menu
i nagle wam się pierwsze menu automatycznie rozwija,
czyli no generalnie Focus nam zawsze lądował na tym menu Apple
i wtedy mogliśmy sobie np.
wpisać pierwsze kilka liter jakiegoś innego menu, np.
gdybyśmy chcieli wejść do, nie wiem, powiedzmy
menu pomoc, no to mogliśmy napisać PO i wtedy nam Focus
na menu pomoc przechodził, a tutaj nam się to pierwsze menu
automatycznie rozwija. Ja w pierwszej chwili myślałem, że
że to tak ma być, no trochę mi się to nie podobało.
Okazało się, że jest to związane ze śledzeniem myszy, bo jakiś czas temu kiedyś,
pewnie w internecie tego potrzebowałem, przełączyłem sobie w ustawieniach
nawigacji, żeby kursor myszy zawsze podążał za kursorem voiceovera, bo czasami gdzieś
na stronach internetowych może być tak, że kiedy myszkę na jakiś tekst przeniesiemy,
to tam może coś się nam rozwinąć.
No rozwinąć nam się może nawet właśnie menu, jak się okazuje w tej najnowszej wersji,
No bo dla osób widzących faktycznie tak to wygląda, że kiedy ustawią myszkę na jakimś menu, to automatycznie te opcje po prostu pod tą myszką się zaczynają rozwijać.
No i tak jak wcześniej to z klawiaturą tak nie działało, nawet jeśli myszka tam była, to teraz tak to działać zaczęło.
Więc generalnie zauważyłem ostatnio, że gdzieś to śledzenie mysz może czasami powodować więcej problemów niż pomagać, więc warto je sobie raczej wyłączyć.
No chyba, że w jakiejś aplikacji faktycznie tego potrzebujemy, no to wtedy sobie
na ten czas tą funkcję włączyć.
No i wtedy nawigacja po menu nam działa normalnie.
To jest jeden błąd, a drugi błąd
zauważyło kilka osób w Safari
na niektórych stronach internetowych.
Mianowicie nawigacja w Polak Edycji nie działa tak jak powinna, bo po prostu
Kiedy chodzimy na przykład sobie po znakach z czołgami w lewo, w prawo voiceover po prostu nam nie czyta nic.
To nie dzieje się wszędzie i to nie dzieje się we wszystkich przeglądarkach, więc nie wiem czy to nie jest błąd z Safari,
bo w innych aplikacjach generalnie też to działa, czyli nie wiem w Poczcie, w TextEditie, czy właśnie w Firefoxie, czy w Chrome’ie tego problemu nie ma.
Natomiast faktycznie w Safari, no tutaj takie nawet zwykłe pole edycji HTML coś się popsuło,
No bo właśnie na ApoVisie to nie działa i nie działa w naszym systemie redakcyjnym tutaj na stronie.
No czyli coś się popsuło.
Można to obejść w ten sposób, że chodzimy sobie po znakach z krótami voice-overa, czyli wchodzimy w interakcję z tym polem edycji i wtedy
wo, shift, strzałki lewo, prawo nam chodzą po znakach albo po prostu tymczasowo przełączyć się na inną przeglądarkę.
Miejmy nadzieję, że ten problem też zostanie naprawiony, bo jest taki dość irytujący.
Więc no taka aktualizacja w niektórych kwestiach na plus, w innych na minus.
O, jeszcze jeden taki myślę dość istotny plus, akurat z tej aplikacji nie korzystam,
więc zapomniałem o nim wspomnieć, ale wiele osób się z tego cieszy.
W aplikacji VMware Fusion, czyli takiej no ulubionej aplikacji do wirtualizowania
systemów operacyjnych, w tym Windowsa, ona gdzieś tam cały czas się rozwija, no bardzo
późno dostała wsparcie dla tych nowych Maców i Windowsa 11, w tych najnowszych
wersja jak ponoć to już zostało całkiem fajnie zrobione
do tego stopnia, że nawet tego Windowsa nam samo
VMware teraz jest w stanie ściągnąć, więc aplikacja, która
przez osoby niewidome jest ceniona, no miała na macOS 14
dosyć poważny błąd, mianowicie jeśli wirtualną maszynę sobie
uruchamialiśmy z włączonym voice overem, no to ten VMware po prostu
się wysypywał i nam ta wirtualna maszyna się nie uruchamiała.
Obejście? Proste. Wyłączamy voice overa zanim odpalimy naszego wirtualnego Windowsa, natomiast idealne rozwiązanie to nie było.
Ludzie to do firmy VMware zgłaszali. Było obiecane, że coś zostanie z tym zrobione, w międzyczasie VMware zostało przejęte przez firmę Broadcom i tam były różne przetasowania.
No VMware na razie z tym nic nie zrobił, natomiast samo Apple w jakiś sposób problem rozwiązało, bo w macOS 14.4 po prostu ten problem już nie występuje, więc jeśli z VMware Fusion korzystacie, albo chcecie skorzystać, przetestować sobie, no to już można bez większych problemów, nawet jeśli VoiceOver jest włączony, no to taki zwirtualizowany Windows, czy tam Linux, czy może jakiś inny macOS w tej aplikacji powinien nam bez większych problemów.
problemów się po prostu uruchomić.
Przechodzimy do kwestii cyfryzacji,
no bo u nas to się rozwija,
no ale w związku z tym, że Paweł mieszka
w Austrii, no to
może powiedzieć, jak to wygląda
właśnie w Austrii. Tutaj mamy
w notatkach, jak wygląda
ta kwestia właśnie w Austrii.
Chętnie Wam o tym opowiem, bo wczoraj miałem okazję
po raz pierwszy w życiu, okazję, też
potrzebę podpisać dokument
cyfrowo. Akurat chodziło o
jakiś taki dokument potwierdzający
no jakąś tajemnicę zawodową, coś tam,
to w związku z pracą i z tym co robię w ramach pracy
dla innej instytucji, no i dostałem PDF-a
i nawet była prośba, że mogę go podpisać ręcznie
albo podpisać go cyfrowo.
I teraz nie chciałbym tu przestrzelić
i powiedzieć, że w Austrii podpis cyfrowy
cyfrowy jest w stu procentach przypadków równy temu ręcznemu, natomiast domyślam się, że tak przynajmniej z opowieści tu słyszę, że w dużo większej ilości przypadków,
tak to odnoszę wrażenie, niż w Polsce jest on stosowany. Czy jest to Estonia, to jeszcze bym nie powiedział. O tyle na pewno nie, że przykładowo zakładając konto w banku,
nie mogłem skorzystać z podpisu cyfrowego. Tak daleko jeszcze nie jesteśmy, przynajmniej ten bank, którym ja chciałem konto otworzyć, takich podpisów nie honorował.
No szkoda, cóż poradzić, trzeba było z osobą towarzyszącą iść do banku.
Ale tutaj akurat nie ma problemu, instytucja powiedziała nie ma sprawy, podpisuj pan cyfrowo.
No i jak taki proces wygląda w Austrii?
No jest portal, który jest tam pod swoim jakimś tam linkiem, ja zazwyczaj go wygoogluje sobie, żeby znaleźć.
No i na tym portalu co ja robię?
Wrzucam PDFa, jest przycisk do uploadu.
PDF się wrzuca.
Jestem proszony o wybór metody.
Metody są dwie.
Albo podpis jest niewidoczny,
albo podpis jest widoczny i wstawiany jest tak zwany znak fotograficzny,
czy znak obrazowy, bildmarker po niemiecku.
No i wtedy jest to po prostu podpis, który też widać w samym dokumencie,
że on jest wstawiony, bo przy niewidzialnym podpisie,
czy niewidocznym, powiedzmy, ten podpis jest do zweryfikowania oczywiście przez portal,
natomiast on nie jest widoczny tak gołym okiem w dokumencie.
Pytanie, czy we właściwościach dokumentu nie jest przypadkiem widoczny taki podpis?
A sprawdzę to na przyszły tydzień.
To nawet mogę w komentarzu dopisać, bo to jestem w stanie sprawdzić.
Okej.
Natomiast ja tak podpisałem, bo uznałem, że tak mi jest szybciej i ze screenreaderem łatwiej.
Czyli czy to wystarczy? Mam nadzieję. Wysłałem ten dokument tak podpisany do tej instytucji, która się tego domagała, oczywiście z zaznaczeniem, że tak nie było łatwiej, bo czytnik ekranu.
No i zobaczymy, jaka będzie reakcja. Jak sobie zażyczą jednak, żeby ten podpis był widoczny, no to mamy kilka sposobów, okazuje się, który będę musiał przetestować i zobaczę, który siądzie.
pewnie któryś drugi albo trzeci, ale po pierwszy sposób to jest taki, że podpis widoczny zostanie wstawiony automatycznie.
Automatycznie oznacza, że na końcu ostatniej strony pod tekstem, no i w wielu przypadkach się to sprawdzi.
Natomiast mój dokument wygląda tak, że był sobie tekst, data, podpis, to była strona pierwsza i jeszcze był sobie tekst na stronie drugiej i tam już tych pól na datę i podpis nie było.
Więc domyślam się, że w tym przypadku, gdybym skorzystał z opcji automatycznego podpisu, to sobie bym podpisał drugą stronę, na której w ogóle nie była do tego przewidziana żadna formatka.
No i tu instytucja już mogłaby się przyczepić, że oni tak sobie nie życzą, że miejsce na podpis jest na pierwszej stronie i tam ma podpis być.
I oczywiście są sposoby na to, żeby sobie z tym fantem poradzić.
Sposoby są dwa. Sposób numer jeden. Osoba wystawiająca dokument na specjalnej do tego dedykowanej stronie generuje kod QR i wstawia również ten kod QR na tej stronie do PDF w miejscu, gdzie ma być podpis.
I teraz ja zaczytuję sobie PDFa, wybieram sobie, że chcę ręcznie wstawić podpis w formie obrazka
i że plik zawiera kod QR ze wszelkimi potrzebnymi danymi.
I wtedy kod QR się usuwa, podpis się wstawia.
I to jest tak zwany placeholder, plachalter, czyli po prostu mamy już zachowane miejsce,
jakby zarezerwowane miejsce kodem QR, gdzie ma ten podpis wylądować.
To jest opcja numer dwa. Natomiast opcja numer trzy, jeżeli ktoś naprawdę nie chce mi tego kodu wygenerować, to mogę zawsze taką osobę zapytać,
okej, to poproszę o konkretne koordynaty, ile od tam lewej i górnej krawędzi, to jest nie wiem czy w centymetrach, czy w pikselach, w jakichś wartościach policzalnych,
ma ten podpis się znaleźć i ta osoba mi takiej odpowiedzi udziela i ja mogę wtedy ręcznie, przy wstawianiu ręcznym tego obrazka z podpisem, wpisać te dane.
Ale jako zmięta osoba musi sobie znaleźć sposób na to, żeby to obliczyć.
Tak, przy czym to się chyba da jakoś tym narzędziem tam wyliczyć, albo pewnie jakoś w Adobe Readerze, jakimś narzędziem linijki czy coś, nie mam pojęcia szczerze mówiąc.
Ale ja mogę sobie te dane wpisać i on ten podpis mi wrzuci tam, gdzie to powinno być.
No więc fajnie, widać i to też nie jest tak, że te opcje były od początku, bo zdaje się, że cały ten portal w pierwszej wersji, kiedy się ukazał,
on na początku jakoś dostępny był, potem przestał być dostępny i po interwencji znowu dostępny się stał.
I to jakoś się stało jesienią zeszłego roku.
Zresztą w Austrii w ogóle nastąpiło wielkie przejście metody autentykacji z czegoś co nazywało się Handy Signature, czyli jakby podpis komórką, na nową cyfrową tożsamość, która nazywa się ID Austria.
No i tym ID Austria teraz można właśnie logować się do usług, podpisywać dokumenty itd.
No i kiedy już wybierzemy sobie jak chcemy ten dokument podpisać, czy niewidocznym podpisem, czy widocznym, ale tak, śmak, owak,
no to jesteśmy przekierowani do logowania, wpisujemy naszą nazwę użytkownika bądź numer telefonu oraz hasło, które sobie ustaliliśmy przy tworzeniu ID Austria
i na naszym telefonie, na smartfonie wyskakuje powiadomienie z aplikacji Digitales Amt, czyli cyfrowy urząd
I w cyfrowym urzędzie my po prostu otwieramy powiadomienie, identyfikujemy się Face ID i wyskakuje nam okienko, czy chcesz podpisać taki to a taki dokument i klikam wtedy tak, podpisuję, no i strona się przeładowuje i gratulacje, dokument został podpisany, link pobierz, no i pobieram podpisany PDF.
Ale ten placeholder to moim zdaniem naprawdę świetna opcja. Bardzo dobrze, że coś takiego zostało dodane.
Oczywiście wiadomo, że wymaga to jakiejś tam ingerencji tej osoby, która nam generuje taki dokument,
ale jeżeli ktoś ma taką świadomość i ma do tego narzędzie, no to z naszej perspektywy jest super.
Tak, ja jeszcze zobaczę jak to wygląda ze świadomością na ten temat.
Na szczęście tutaj instytucja, o którą się mi rozchodzi jakoś tam jest powiązana z tymi strukturami rządowymi, więc raczej będą o tym wiedzieć.
Natomiast myślę, że im częściej będę podpisywał różne dokumenty w ten sposób albo się do tego domagał, że chcę tak podpisać, to się dowiemy na ile to jest możliwe i na ile ludziom się chce.
Mam pytanie z ciekawości. Tutaj rozmawialiśmy jak to wygląda w takiej sytuacji rządowej. Czy ktoś z Was miał kiedyś okazję podpisywać się do KUSAJN-em?
A to w ogóle w Polsce działa?
No nie wiem czy w Polsce, ale w niektórych europejskich firmach na pewno tak, bo ja nierawno miałem okazję takie coś podpisywać, bo po prostu było potrzebne, żeby tam klauzulę połówności podpisać.
I no właśnie byłem bardzo pozytywnie zaskoczony, to jest też z tego co rozmawiałem ze znajomym, który też z takimi dokumentami pracował.
Może być tak, że jeśli plik PTF odpowiednio nie został spreparowany, to jest wtedy mniej dostępny, natomiast w tym przypadku, pewnie też firma wiedziała, że ma do czynienia z osobą niewidomą, to zostało przygotowane, no to po załadowaniu strony, stronę ładowałem nawet na smartfonie, żeby było ciekawiej, co pierwsze co mi się otworzyło, to był na stronie po prostu widoczny normalnie plik PTF i był na niej przycisk, naciśnij Enter tutaj, aby przeczytać ten dokument czytnikiem ekranu.
Więc ja sobie nacisnąłem na ten przycisk, normalnie mi się ten plik PDF przeładował,
no się wyświetliła chyba ramka jakaś i no musiałem gdzieś dane osobowe wypełnić.
Tam gdzie musiałem podać adres zamieszkania i tak dalej to po prostu normalnie były
pola tekstowe, imię i nazwisko też.
Natomiast jeśli chodzi o sam podpis, no tam taki placeholder też był, no przez to,
że to nie było tam gdzieś jakiejś dostrzamości rządowej.
No trzeba było jakoś ten podpis zrobić i na to też było dosyć ciekawe wydaje mi się rozwiązanie.
Ja na smartfonie miałem opcje z tego co pamiętam trzy.
Pierwsze, mogłem po prostu sobie podpisać się rysując na ekranie.
Po drugie, mogłem załadować plik z podpisem, czyli jakiś obrazek załadować.
A trzeci, mogłem mieć podpis wygenerowany automatycznie i to było bardzo ciekawie zrobione,
bo strona po prostu sobie
szczytała moje inicjały
miała tam też listę rozwijaną
w której mogłem sobie wybrać
tam kilka odcieni
tego podpisu i jakichś styli
z tego co pamiętam, jakoś tak się to nazywało
on mi jakiś styl losowo wybrał
chyba styl trzeci albo czwarty, ale mogłem sobie go po prostu
zmienić i ja na tej stronie też po prostu
widziałem, że inicjały
PM, styl
piąty na przykład, jakoś tak mi się tam po prostu
to wyświetliło i to był
Normalnie mój cyfrowy podpis, tam był też komentarz, że właśnie gdzieś będzie od tego momentu mój podpis w usłudze DocuSign,
więc przypuszczam, że jak bym kiedyś jeszcze musiał coś z tą firmą podpisać, no to bym musiał sobie gdzieś ten sam znów styl wybrać.
No ale to działało bardzo fajnie, nawet mimo to, że nie pracowałem akurat na komputerze, byłem bez większych problemów w stanie taki dokument podpisać i odesłać i wszystko było okej.
Dobrze, to w takim razie teraz zajrzyjmy do waszych wypowiedzi.
Jeszcze Milena nam nagrała jedną wiadomość, prawdopodobnie znowu temat bankowy, no ale zobaczymy.
Tu jeszcze raz ja tutaj do Piotra. Tak, ja wiem, że te przełączniki jak się tapnie, to one są zaznaczone.
Ja robiłam już równe sposoby, naprawdę różniste sposoby.
Nawet resetowałam cały telefon, bo mi chłopak doradzał.
Mówi, spróbuj, może masz jakiś wątp, coś w telefonie jest nie tak.
Zerowałam telefon, wszystko zerowałam i stawiałam wszystko na nowo na tym telefonie.
Nic to nie dało.
A jeżeli chodzi o te alerty na stronie, no wszystko jest właśnie włączone, o to chodzi.
że na stronie ten pakiet podstawowy, jak chodzi o powiadomienia PUSH, jest aktywny, wszystko działa.
Więc ja tu odstawiam, że tak powiem, że to jest kwestia gdzieś tam u nich,
tylko tak naprawdę niestety nie chcą się do tego przyznać.
I obawiam się, że to jest gdzieś tam taki problem, że u jednych po prostu on występuje,
a u drugich nie, bo na przykład mój chłopak nie ma takiego problemu.
Jak sobie np. opcje odznaczy i je zaznaczy, no to jak zaznaczę to są zaznaczone, jak je odznaczę to są odznaczone.
Także tak to wygląda. Pozdrawiam.
I tyle, ale to zdecydowanie nie tyle jeżeli chodzi o nasze nowości.
No bo. I w Zoomie i w Teamsach można robić prezentacje, takie prezentacje ze slajdami, jakimiś ewentualnie nagraniami,
Wszystkim tym, co się wiąże z prezentacjami.
No i Michał, jak wygląda w przypadku Zooma i Teamsów, bo zdaje się, że masz tutaj spore doświadczenie w temacie.
Spore takie, że akurat dziś wspólnie zresztą z Piotrem Witkiem mieliśmy okazję sobie to trochę potestować.
Podejrzewam, że Piotr za jakiś czas coś w swojej szufladzie popełni na ten temat,
a może i jakiś podcast też będzie okazja, żeby zrobić na ten temat.
No i tu niestety muszę powiedzieć trochę złego na temat Zooma, bo teraz przechodząc już do konkretów, co my możemy zrobić jeżeli chodzi o Zooma co do prezentacji.
Oczywiście wiadomo, że mówię tu o takim trybie prezentacji, kiedy udostępniamy plik, kiedy udostępniamy konkretnie prezentację w tym trybie prezentacyjnym,
bo zarówno Microsoft Teams, jak i Zoom ma możliwość takiego sposobu udostępniania pliku.
No tylko tak, problem jest w tym, że jeżeli chodzi o Zooma, no to możemy w zasadzie z naszej perspektywy,
z perspektywy użytkownika ekranu, to możemy co najwyżej przerzucać sobie po prostu slajdy za pomocą odpowiednich przycisków,
bądź też za pomocą spacji, mamy strzałkę w lewo, strzałkę w prawo, możemy sobie te slajdy zmieniać, ale jeżeli osoby niewidome będą uczestniczyły w takim spotkaniu, to absolutnie z taką prezentacją nie będą w stanie się zapoznać, no chyba, że z OCR-em, a to też nie jest pewne, bo ten OCR na zoomie akurat raz działa, raz nie działa, więc ja absolutnie tego bym nie rekomendował, bo to po prostu wyświetla się wtedy, że ktoś udostępnia ekran, no i wszystko fajnie, tylko co z tego.
skoro z zawartością udostępnienia ekranu nie da się zrobić w zasadzie nic.
My, jako prelegent, możemy przerzucać te slajdy,
ale przy okazji to fajnie by było jakbyśmy te prezentacje mieli otwartą jeszcze dodatkowo w jakimś okienku,
no bo to, że my możemy te slajdy przerzucać,
to absolutnie nie oznacza tego, że jesteśmy w stanie się z nimi zapoznać.
W Zoomie po prostu nie, no nie działa, nie działa to w żaden sposób, nie jesteśmy w stanie tego z programem odczytu ekranu przeczytać.
I tyle na temat Zooma, a teraz będzie sporo więcej na temat Microsoft Teamsa, którego ja osobiście za bardzo nie lubię, to powiem szczerze, jest to aplikacja ciężka, mam wrażenie przeładowana funkcjami,
Ale jak przychodzi co do czego, to mimo tego, że Teams ma zdecydowanie gorszy dźwięk od Zooma,
to ma zdecydowanie więcej fajnych funkcji dotyczących prezentacji.
Bo tak, kiedy sobie udostępnimy taką prezentację właśnie w tej formie,
jako prelegent, jako plik PPTX, no to zaczynają się dziać bardzo ciekawe rzeczy.
Po pierwsze, jesteśmy w stanie przerzucać slajdy, zarówno jako kontrolujący, nie mamy do tego kilka sposobów,
bo możemy tam przerzucać strzałkami, spacja też jest.
W trybie przeglądania, jeżeli sobie taki tryb odpalimy, to możemy sobie przełączać te slajdy za pomocą tam przycisków poprzedni, następny,
bo to jest po prostu taka ramka, która nam się otwiera i w tej ramce dostajemy prezentację w formie strony internetowej.
I tam mamy do dyspozycji sporo różnych opcji, są jakieś wskaźniki laserowe, jakieś narzędzia do zakreślania.
Tego akurat nie testowałem, no bo najzwyczajniej w świecie to nie było mi w tym momencie potrzebne, ale było to dostępne.
Mogłem sobie wybrać takie narzędzie, no pytanie czy byłbym w stanie z niego w jakiś sposób sensowny skorzystać.
Mogę zmieniać rozmiar czcionki, powiększać, pomniejszać i tak dalej, i tak dalej.
Druga rzecz jest taka, że jeżeli ktoś na przykład chce wyjść przed szereg z oglądających taką prezentację,
to on też to może zrobić.
To znaczy może taką prezentację
bez problemu
sobie samodzielnie, we własnym tempie
przeglądać. My jako
prowadzący mamy taką
opcję w Teamsie, żeby
to zablokować i wtedy
jest po prostu
informacja tylko o tym,
że możemy
sobie te slajdy, że
prelegent, osoba prowadząca dane
spotkanie jest w stanie te slajdy przerzucać.
Natomiast, no, my musimy podążać za tym, co ten prowadzący to spotkanie będzie robił.
Jeżeli chodzi o informację, że te slajdy się zmieniają, no to też dostajemy taką informację,
że właśnie prowadzący zmienił slajd.
No i w takiej sytuacji, jeżeli jesteśmy w oknie Teamsa, to po prostu nam to odczyta.
Jeżeli jesteśmy poza oknem Teamsa, no to ta informacja nie zostanie odczytana.
Natomiast bardzo fajnie to działa, jest to taka po prostu, tak jak mówię, strona internetowa
i możemy sobie tam czytać różne rzeczy, które są w tej prezentacji.
I teraz jeszcze kilka ciekawostek, bo czytanie tych slajdów to jest jedno.
Tam mamy takie wstępne formatowanie, pewne rzeczy, na przykład listy, akurat z tymi prezentacjami, z którymi miałem okazję się pobawić, to przede wszystkim były tam listy wypunktowane
i to bez problemu było czytane jako po prostu wypunktowane listy.
Byłem w stanie bez problemu się poruszać po tych elementach, je sobie odczytywać.
Natomiast, jeżeli chodzi o elementy dźwiękowe w danych prezentacjach, to też jesteśmy w stanie to zrobić, się z tym zapoznać.
Po pierwsze, oczywiście możemy polegać na prowadzącym, że nam te prezentacje i te elementy audio włączy.
Działa to w ten sposób, że jeżeli jesteśmy w przeglądzie danego slajdu, który ma takie elementy audio,
to po prostu sobie wciskamy spację i kolejne elementy audio w danym slajdzie będą odtwarzane.
Tu trzeba uważać, żeby nie wcisnąć tej spacji za szybko,
bo na przykład może się zdarzyć tak, że jak będą dwa elementy audio,
to nam się najzwyczajniej w świecie na siebie nałożą.
Więc z tym trzeba bardzo ostrożnie.
Ale załatwia nam to sytuację taką, w której mamy w prezentacji jakiś dźwięk,
Korzystamy z czytnika ekranu i chcemy teraz ten dźwięk przekazać naszym słuchaczom, którym te prezentacje demonstrujemy.
No i teraz tak, zwykle jeżeli nie mamy jakiejś odpowiedniej instalacji audio, to musimy udostępnić ekran z dźwiękiem, wtedy słychać też nasz czytnik ekranu i zaczynają się dziać cuda.
A tutaj, jeżeli mamy taką prezentację z dźwiękiem, to możemy bez problemu w Teamsie taką prezentację po prostu odpalać, jeżeli chodzi o te elementy audio.
Problem jest taki, że w slajdach takiej prezentacji, w których mamy elementy audio, są odpowiednie linki, dzięki którym teoretycznie też powinniśmy dojść do takiego elementu i móc go odtworzyć.
To jest teoria, z praktyką jest troszkę gorzej, bo te linki nie działają, jak klikniemy sobie w taki link, wyjdziemy z trybu przeglądania, naciśniemy tap, to w końcu nam się pojawia jakiś odtwarzacz.
I w zasadzie wtedy jesteśmy w stanie ten element multimedialny aktywować, jesteśmy w stanie go odtwarzać, ale to nie zawsze chce działać.
U mnie to parę razy zadziałało, parę razy nie zadziałało, więc to jest takie no po prostu bardzo losowe.
Ta spacja działa zawsze, więc lepiej sobie wtedy te slajdy i te elementy przerzucać po prostu naciskając spację.
Co jest problemem? Problemem, i to było dla mnie zaskoczenie, są elementy graficzne.
Bo jeżeli dana prezentacja ma obrazki i nawet w trakcie tworzenia takiej prezentacji w powerpointie są wpisane teksty alternatywne,
to z jakiegoś powodu one nie są czytane.
Czytana jest ścieżka do danego obrazka.
Nie ma altów odczytywanych, więc też nie jesteśmy nawet informowani, że to jest grafika.
Bardzo dziwne to było zachowanie.
Być może to była kwestia tej prezentacji, która została przygotowana.
Gdyby ona może była w jakimś nowszym PowerPoint’cie, to działałoby to lepiej.
Może jeszcze coś innego.
No w każdym razie taki problem.
Natomiast co jest jeszcze ciekawsze w takiej prezentacji, to mamy w Teamsie jako jedną z opcji możliwość tłumaczenia i to jest super.
Załóżmy, że mamy taką prezentację w języku, którego nie do końca znamy,
Bo np. nie wiem, prowadzący mówi po polsku, ale ma jakąś prezentację po angielsku, którą pokazuje i my chcielibyśmy jednak się też z nią zapoznać po polsku.
Możemy bez problemu wybierając odpowiednią opcję tłumaczyć taką prezentację w locie i co więcej ta prezentacja jest tłumaczona na język polski już w całości.
Jak prowadzący przerzuca kolejne slajdy, to dla nas one też są automatycznie przez, no prawdopodobnie Bing Translator, tłumaczone na język polski.
Z takich dostępnościowych rzeczy, to możemy sobie, jeżeli mamy taką potrzebę i to raczej dla osób z problemami ze wzrokiem niż całkowicie niewidomych,
informacja, że możemy sobie w Teamsie w trakcie wyświetlania takiej prezentacji włączyć tryb wysokiego kontrastu.
Wiem, że są wśród nas też słuchacze, którzy mają potrzebę w ten sposób wyświetlania sobie różnych elementów, więc może być to dla nich przydatne.
Naprawdę, no jeżeli chodzi o Teamsa i te prezentacje, ja słyszałem oczywiście już kiedyś, że jesteśmy w stanie z tymi prezentacjami się zapoznawać,
Ale, i kiedyś nawet to widziałem w praktyce, ale teraz zdecydowanie bardziej to poprawiono.
Ten komfort jest naprawdę dość duży. No tylko jedna rzecz. Do tego trzeba się dostać i potem z tego nie wyjść.
Bo największy problem mam wrażenie, jeżeli chodzi o Teamsa, to jest taki, że jeżeli gdzieś czasem wejdziemy,
to potem po prostu powrót do tego miejsca może być problematyczny.
Mam wrażenie, że zdecydowanie większy problem mają tu użytkownicy Maca niż Windowsa,
bo tu ja nie miałem jakiegoś większego problemu z powrotem do takich, do tych elementów,
aczkolwiek też parę razy zdarzyło mi się, że mi gdzieś ten fokus uciekał
i że to nie było takie fajne, jakby mogło być.
Tak sobie pomyślałem, że gdyby kiedyś Microsoft i Zoom, co prawdopodobnie się nie wydarzy, połączyli siły, to naprawdę mogłoby powstać bardzo fajne narzędzie,
bo to co Microsoft zaoferował, jeżeli chodzi o wyświetlanie prezentacji multimedialnych jest super, natomiast nadal będę stał na stanowisku,
że jeżeli chodzi o wygodę panowania nad danym spotkaniem, zarządzania tym wszystkim i po prostu o interfejs, no to tu Zoom wygrywa.
Także takie moje refleksje.
Michale, a czy, nie wiem czy miałeś okazję to testować, ale czy ta możliwość podglądu prezentacji działa również jeżeli otworzymy sobie spotkanie na Teams w przeglądarce?
Tego nie sprawdzałem, tego nie sprawdzałem.
To jest ciekawe, bo dzisiaj też właśnie brałem udział w spotkaniu Teamsowym, gdzie było dużo prezentacji pokazywanych i moja głupota,
że nie pomyślałem o tym, żeby to sprawdzić, bo przecież wiem o tym, ale no, też kwestie stresu i tak dalej.
Natomiast na przyszłość, no muszę zobaczyć, bo akurat dzisiaj się podłączałem z przeglądarki.
A to widzisz. To też jest, myślę, że warta opcja sprawdzenia.
Teoretycznie to powinno zadziałać, natomiast no, w praktyce wiadomo, że te widoki mogą się różnić.
Teraz też są dwie wersje Teamsów.
jest ta wersja nowa i wersja Classic i zarówno w jednej jak i w drugiej to wyświetlanie prezentacji działa.
Tak, to ja właśnie dzisiaj w Classic byłem, ale w przeglądarce.
No to możliwe, że działa.
No dobrze, to przechodzimy do dwóch naszych stałych punktów programu.
Ale jeszcze jeden news przecież.
No.
Taki niepakietowy.
Tak, a tak, faktycznie. Jest jeszcze twój podniósł, tak, rzeczywiście.
Tak, o Envision.
Tak, pospieszyłem się troszkę.
Tak, ale nic się nie stało.
No właśnie, co nowego w Envision?
Dużo nowego, bo Jonathan Mosen właśnie przeprowadził wywiad z panami, z oboma panami kartikami, bo się okazuje, że i główny CEO i jakby wice nazywają się obaj kartik, tylko inaczej na nazwisko.
nazwisko to znaczy na imię mają kartik a inaczej nazwisko no i z panami zastąpił wywiad w ramach podcastu Living Blindfully i tam dowiedzieliśmy się kilku rzeczy.
Po pierwsze padło takie pytanie no co będzie z okularami no bo wiemy już że Google się raczej wycofało nawet na pewno wycofało się z Google Glasses i co dalej.
No i na ten moment jeszcze nie ma problemu, żeby dostać okulary i tak dalej, ale już pojawiła się wzmianka,
że Envision ma być w przyszłości dostosowane do uruchamiania go na różnych sprzętach,
czyli na przykład na metarejbanach, na humane pin, czyli na tej takiej przypince z AI,
na różnego rodzaju innych okularach i właśnie takich sprzętach noszonych.
I ma to być swego rodzaju platforma, którą będzie dało się właśnie w takich sprzętach uruchamiać.
No to to jest pierwsza rzecz, której się dowiadujemy.
Następna rzecz, jakiej się dowiadujemy, to GPT, które można odpytać a propos dokumentów i które nam dostarcza opisy o zdjęć,
co się ostatnio też pojawiło w aplikacji, a nie tylko na okularach, to jest jakaś lokalna wersja GPT trenowana przez Envision.
i dlatego też te odpowiedzi jakieś są trochę szybsze i trochę to jest bardziej podtrenowane pod kątem właśnie użytku przez osoby z dysfunkcją wzroku.
Pojawi się możliwość w aplikacji jak i też na okularach zadawania pytań o obrazki.
Na razie możemy zadawać pytania o dokumenty, a obrazki możemy tylko tak statycznie mieć opisane.
Natomiast będzie możliwość też odpytywania o tutaj zdjęcia i o to, co jest możliwe.
No i przeszliśmy już do takiego mięska, do konkretów.
Co takiego Envision planuje, jak chodzi o sam interfejs aplikacji?
Bo się okazuje, że plany są dość ambitne i już za tydzień będzie konferencja CSUN.
Do konferencji CSUN jeszcze w tej audycji pokrótce wrócimy, ale konferencja rusza za tydzień.
To jest ta konferencja w Anaheim. Kiedyś to było we Florydzie, zdaje się.
Gdzieś w stanie Floryda. Czy mi się już myli? San Francisco. To już w kilku miejscach było.
Nie, nie w Florydzie. W Kalifornii. Zawsze jakoś tam w Los Angeles.
gdzieś tam, teraz już przenieśli się do Anaheim, do Mariota, no i tam też Envision będzie i będzie demonstrować swoje najnowsze, najmłodsze dziecko, a najmłodszym dzieckiem jest asystent.
No i to asystent nie byle jaki, bo pomysł jest taki, żeby w ogóle przebudować cały interfejs aplikacji, żeby nie trzeba było już klikać różnych przycisków, czy tam suwaków i wybierać,
A dzisiaj to mi taki tryb potrzebny, a teraz to inny, a teraz to jeszcze jakiś, tylko to będzie asystent, z którym my będziemy komunikować się głosowo, wydawać mu polecenia i on w zależności od tego, jakie wydamy mu polecenie i co on uzna, że nam się w danym momencie przyda, to on z tego trybu skorzysta, oczywiście gdzieś tam w tle, nie mówiąc nam nic i zwróci nam ten wynik, którego potrzebujemy.
Czyli przykładowo, wchodzimy do restauracji i możemy powiedzieć, że chcielibyśmy sobie przeczytać menu.
No dobrze, no to tryb jakiegoś tam rozpoznawania dokumentów, on to odpali, użyje tych mechanizmów, zeskanuje menu.
Po czym nam to menu przeczyta?
Ale to nie wszystko, bo my nie musimy wcale się ograniczać do takich poleceń typowych, że użyj tego trybu, użyj tamtego.
Tylko my możemy mu wydać bardzo skomplikowane polecenie i na przykład zademonstrowano to w formie takiej,
że jesteśmy w restauracji i mamy menu i teraz chcemy dowiedzieć się, co on by nam polecił do zjedzenia.
No i nie dość, że on zaopiekował się tym, że my po prostu mamy jakieś konkretne preferencje dietetyczne,
bo gdzieś się tego od nas nauczył, to jeszcze przetłumaczył dania, bo menu było w oryginale w języku niemieckim,
on to przetłumaczył na angielski i jeszcze wszystko to było takim głosem, no bo właśnie tego asystenta będzie można również dostosowywać pod kątem jego osobowości i nie wiem jak oni to robią i z jakimi oni firmami AI chcą współpracować, natomiast pomysł jest taki, żeby można było mu nadać jego imię, to jest prosta sprawa, ale też nadać mu troszeczkę ton jakim on ma się do nas zwracać, czy ma być bardziej poważny, czy ma mieć jakieś poczucie humoru, czy ma być bardziej formalny,
czy coś tam jeszcze, i możemy mu też nadać w pewnym sensie głos i intonację głosu.
I jak to już działa, to ja nie wiem czy to jakieś Eleven Labs, czy coś innego zostało użyte,
ale było kilka takich przykładów i rzeczywiście ten asystent, którym posłużył się Kartik w nagraniu,
on był spersonalizowany, żeby być Alfredem, czyli Lokajem Batmana.
No i tam on rzeczywiście mówił takim troszkę głosem i jeszcze tam wydał sobie czasem jakieś takie wystchnienie, znaczy nie wystchnięcie, tylko jakieś tak wypełnił sobie zdanie.
I było słychać, że trochę się próbuje uśmiechać, ale zasadniczo, mój drogi panie, polecam Ci, jako że stosujesz dietę taką tam, nie wiem, niskową węglowodanową,
polecam Ci zjeść sałatkę, która nie jest polana dressingiem takim, jaki możesz znaleźć w komercyjnym obiegu. Życzę miłego posiłku.
Ja się tylko zastanawiam na ile to będzie jak zwykle zmyślało, bo tego się trochę obawiam, że to w nagraniu brzmi pięknie, a w rzeczywistości zobaczymy.
To jest ciekawe i jak to będzie oczywiście wszystko działało w języku polskim, bo AI jest potężne i Eleven Labs Polski obsługuje nie lada.
Te modele językowe też się orientują, ale pytanie na ile to się po prostu w którymś momencie wszystko wzięte razem do kupy wysypie.
Oni tam jeszcze idą w taką opcję, że tam będzie można analizować też jakiś materiał wideo.
że w jakiś sposób, ja rozumiem, że to wideo musi być wcześniej nagrane,
że to nie jest analiza strumienia wideo płynącego z naszej kamery w czasie rzeczywistym,
ale że będzie można z jakiegoś ruchomego obrazu coś tam zanalizować i nam przedstawić.
Także w coś takiego chcą pójść.
Ten asystent na razie, on już został niby zoptymalizowany.
Na nagraniu on dość wolno odpowiadał.
Ta odpowiedź jego się troszkę tam generowała,
Natomiast ponoć oni już to tak zoptymalizowali, że 200 milisekund, czy 300 milisekund.
No w jakiś sposób to jest już zoptymalizowane, żeby te odpowiedzi przychodziły dosyć szybko.
No ponoć ma być tego prezentacja taka już bardziej oficjalna na CSUNie.
Zobaczymy kiedy to otrzymają okulary, kiedy otrzyma to aplikacja.
natomiast, no, jest to w jakiś sposób.
No coś, co z jednej strony jest ciekawe, z drugiej strony ja jestem pełen obaw i niepewności.
Czy takie przerzucanie jakby interfejsu tradycyjnego, że wszystko będzie już teraz jednym wielkim
tekstowym wejściem i w sumie to my już nic o niczym sami nie decydujemy, tylko wszystko za nas dobierze asystent.
Czy to się tak naprawdę sprawdzi?
To jest taki pewien trend, w zeszłym tygodniu mówiłem też o tych telefonach, które ma zaproponować T-Mobile, też bardzo mocne połączenie z jakimiś modelami językowymi, ze sztuczną inteligencją, która tak naprawdę ma nam zastąpić wszelkie aplikacje.
No, powiem szczerze, mam też wątpliwości.
Ja mam nadzieję, że kiedyś jeszcze będzie opcja, żeby wrócić z tego na przykład trybu instant text, jakbyśmy chcieli sobie coś po prostu przeczytać tak na bieżąco.
To się zgadza, bo tutaj zaczyna się jakieś filtrowanie trochę treści, a czasami jakby się po prostu chciało przeczytać coś, bo tak. No ciekawe jak to będzie.
Pewnie się mu zada odpowiedni prompt i on to zrobi, jak się go tam zmusi jakimś promptem, tylko czy o to nam chodzi, żeby klikanie w przyciski zamienić na… Historia zatacza koło, wpisujemy komendy.
Tak, zobaczymy, być może, ale właśnie z drugiej strony często jest tak, że jeżeli chcę coś zrobić szybko, wchodzę w aplikację, wiem, że ten przycisk jest na górze, tak po prostu naciskam i tyle.
Tak, a teraz no to, no pisać, no okej, jak ktoś ogarnia brajla, no to wpisze, jeżeli ktoś nie ogarnia brajla z jakiegoś powodu albo w ręku ma coś, trzyma sobie w dłoni, nie wiem, zakupy, albo cokolwiek i po prostu nie bardzo jest jak ten telefon tak obsługiwać z pisaniem.
To znaczy będzie można mówić.
Będzie można mówić, tak.
Wiesz, mówić, no, wszystko fajnie, tylko wiesz, stoi obok ciebie kelner czy ktokolwiek i teraz weź powiedz, przepraszam, bo ja teraz porozmawiam sobie z telefonem.
No okej, pewnie można, ale ile ludzi będzie się czuło trochę głupio mimo wszystko?
Może to jest kwestia jakiejś zmiany społecznej, skoro teraz i tak, znaczy na to się narzeka, ale ludzie i tak patrzą w telefony, nawet jak są w miejscach publicznych.
No patrzą w telefony, ale nie mówią na telefonu, w sensie, wiesz…
jeszcze nie weszło, no to moda, wiesz, na zasadzie takiej, że
nie ma jeszcze póki co powodu, a za chwilę,
jak zaczniemy, i to nie tylko niewidomi, ale ogólnie
sprawdzać co chwilę rzeczy w GPT, jak to się gdzieś tam
rozbuduje, to akurat w tym względzie ja się
o zmiany kulturowe i obyczajowe nie do końca boję, bo
technologia do tego stopnia dominuje, że my się jakoś temu
podpowiedzi pomijamy.
Być może my będziemy pierwsi, jako pierwsza nasza grupa, natomiast
to wcale nie musi oznaczać, że…
Tylko, że podejrzewam czasami, że to jest kwestia kilku lat co najmniej
i przez te kilka lat my możemy mieć nie to, że problem, ale taki możliwe, że dyskomfort psychiczny, zwłaszcza jeżeli ktoś chce być mimo wszystko jakoś dyskretny i jest gdzieś w głośnym miejscu i coś musi powiedzieć takiego, co niekoniecznie chciałby, żeby wszyscy słyszeli.
Z drugiej strony, pamiętajcie też o tym, bo jest też druga strona medalu, mianowicie taka, że część osób niewidomych z obsługą tych nowoczesnych technologii, to sobie najzwyczajniej w świecie nie radzi.
Tak po prostu. I być może właśnie takie sterowanie głosowe, które będzie, za pomocą którego będzie można wydać wiele różnych poleceń, to dla tej grupy osób, która na przykład straciła wzrok w jakimś późnym etapie swojego życia.
Albo po prostu, no, technologie to nie są za bardzo ich takim konikiem, nie interesują się, nie rozbierają tego wszystkiego na czynniki pierwsze tak jak my.
To może właśnie dla takich osób będzie to jakaś taka nowa forma na to, żeby jednak z tej technologii wycisnąć jeszcze więcej. Być może.
Tak, ale pod jednym warunkiem, że to będzie w tym języku, które te osoby znają.
Bo teraz mamy Envision i załóżmy, że można się nauczyć instant text, no to jest szybki tekst.
Nie, ale jest po polsku tekst, to jest kluczowy.
Nie no, okej, po polsku tak, ale ile aplikacji po prostu nie będzie po polsku?
Jeżeli ktoś ogarnia angielski, no okej, jak nie…
Ale te LLM-y na ogół ogarniają angielski.
No na ogół, tylko wiesz, na razie to się korzysta z GPT, natomiast ile osób, no bo wiesz, coraz więcej jest tych LAM, tych modeli,
które można uruchamiać jakoś tam lokalnie i ja tylko czekam, aż rzeczywiście jakaś firma zacznie tworzyć, wiesz, swoje modele,
bo one nie będą zmyślać, bo one nie będą mieć cenzury, bo one będą coś jeszcze, bo one będą przede wszystkim nasze
i my będziemy mieli nad nim pełną kontrolę i tak dalej, i tak dalej, bo to się z tego, co wiem, już troszkę zaczyna powoli.
Na pewno się myśli o tym i ja się po prostu zastanawiam, co wtedy, jeżeli będzie taka aplikacja, która będzie obsługiwała cztery języki czy pięć i trzeba będzie nauczyć człowieka starszego, który ma po pierwsze problemy z wymową,
po drugi mówi cicho, po trzeci nie zna angielskiego, no i jak ma się ten człowiek porozumieć z tym asystentem, gdzie no wiadomo, rozpoznawanie mowy jest jakieś,
człowiek, no co, będzie musiał się nauczyć wypowiadania kilku zdań po angielsku, je wkuć na blachę, no można, teoretycznie go pytanie, co jest szybsze w takich przypadkach,
Czy nauczenie się kilku przycisków, tak mniej więcej, czy nauczenie się kilku zdań, toćka w toczkę?
Bardziej myślę, że zdecydowanie szybsze będzie po prostu wybranie innej aplikacji, która będzie robiła to samo, ale na modelu, który rozumie Polski.
O ile będzie.
Ale zobaczymy, no może będzie, no to wszystko zobaczymy, no w każdym razie, no ciekawie się zapowiada i zobaczymy jak to będzie wyglądać.
I to jeszcze nie jest koniec nowości, bo padło też pytanie o Envision na Windowsa, bo taka zapowiedź też była.
No i tutaj ciekawy zbrod okoliczności, bo
Envision twierdzi, że wypuści już coś dla nas w kwietniu i tym czymś będzie rozszerzenie do przeglądarki.
No i oczywiście z jednej strony jakieś tam jego typowe tryby, coś tam, rozpoznawanie.
Jonathan o to pytał, no tak, tak, ale
My chcemy zrobić coś więcej. My chcemy, żeby to rozszerzenie przy użyciu AI
klikało w niedostępne elementy na stronach,
a z czasem też będziemy chcieli, żeby wypełniało formularze.
No i tu…
Ja szczerze mówiąc nie wiem, jak się z tym czuję.
Bo to nie jest nakładka dostępnościowa typowo.
To jest taki ułatwiacz, który my odpalamy na naszych zasadach wtedy,
kiedy on nam jest potrzebny.
Ale pytanie, czy to nie jest już tak krok po kroczku dojście do takiego, że w sumie to dostępności takiej robionej świadomie przez ludzi to nie potrzebujemy, bo tu kliknie Envision, tu wypełni Envision.
Z drugiej strony to jest niesamowite ułatwienie i no nie zdziwię się, że jeżeli to będzie efektywne, to ludzie to po prostu pójdą.
No właśnie, ja jako użytkownik, to szczerze mówiąc, mnie średnio interesuje, czy zadane rozwiązanie odpowiada autor strony,
czy jakieś narzędzie, z którego ja korzystam. Mi po prostu chodzi o efekt.
I ja myślę, że z nakładkami dostępnościowymi, to też nie jest tak, że ja się hejtuję dlatego, że one po prostu są.
Ja się hejtuję dlatego, że one po prostu źle działają.
I to gdyby ktoś zrobił taką nakładkę dostępnościową, która rozwiązuje wszystkie problemy, jakie tylko mogą wystąpić i o których mówi WCAG, no to czy ktoś miałby coś przeciwko temu?
Na pewno nikt z użytkowników, bo tu już bardziej bieda dla nas trochę, dla audytorów, dla osób, które pracują w tym i mają z tego chleb,
że gdzieś to zapotrzebowanie na tego typu pracę się zredukuje diametralnie, chociaż moja nadzieja zawsze jest taka, że zawsze musi być na koniec ten niewidomy użytkownik, który to sprawdzi.
Oczywiście, że tak.
Który wyda jakąś opinię typu, to działa, to mi po prostu nie działa i w tym pokładam jakąś swoją nadzieję, no ale nie bądźmy fatalistami, poczekajmy jak się to wszystko rozwinie.
No takie nowości od Envision, a Envision już za tydzień na targach, a raczej na konferencji z CSUN w Kalifornii.
To teraz zaglądam do waszych wypowiedzi, konkretnie od Mata i Matiusa.
W tym momencie też pozdrawiam serdecznie naszego słuchacza Marcina.
Marcinie, ale wybacz, wiadomości głosowe od ciebie pozwolę sobie wyemitować w nieco późniejszym czasie,
bo tych wiadomości nam wysłałeś na mniej więcej pół godziny, więc to może później.
A teraz skupmy się na krótszych treściach.
Matt do nas napisał na dobry początek.
To już sprawdzamy co napisał do nas Matt.
Witam. Jak zaktualizować Zuma H1-e?
Rozpakować plik na kartę i rozpocząć aktualizację?
Czy jakoś inaczej?
Jest skrót by zresetować urządzenie?
O to pyta Matt.
No to tak, trzeba plik rzeczywiście rozpakować na urządzenie.
Jest tam plik BIN, który się wrzuca na kartę pamięci.
Tam jest też PDF, jak to zrobić, oczywiście PDF po angielsku.
Natomiast dość taki prosty.
No i potem wchodzisz na menu i wchodzisz w chyba system.
Już nie pamiętam, tam jest gdzieś update firmware i to się robi, to tam trwa minutę, dwie, dobrze jest mieć urządzenie albo podłączone pod USB, albo rzeczywiście dobrze naładowano baterie, no i po wszystkim powinno być teoretycznie okej, jest tam też napisane na stronie, że jest zaktualizowany plik językowy,
Natomiast plik, o innym wiadomo, nadal jest źle, plik jest rzucony zły i plik jest z listopada, czyli ten taki oryginalny, natomiast jest napisane, że w tym niby nowym pliku, który miał być wrzucony, jest poprawione wypowiadanie niektórych słów, więc no cóż, teoretycznie jest, praktycznie nie ma.
Powinno się zaktualizować i język, i zooma, i plik dostępnościowy.
To teraz przechodzimy do garści pytań od naszego słuchacza Matiusa.
Mam dwa pytania, no będzie ich znacznie więcej.
Po pierwsze, czy zwiększyła się dostępność Spidermana 2?
I drugie pytanie, czy wam również gra Bokurano Daibouken 3?
Trójka, po niedawnej aktualizacji, crashuje się na stage 10-4.
Spodziewanie będzie później, bo będzie taki temat poruszony, a co do Bokurano, nie wiem, dawno nie grałem w tę grę.
No to dalej przechodzimy.
Ja nawet nie wiedziałem, że ma jakieś aktualizacje jeszcze.
No właśnie.
Bo to jest dość stare.
Tak, a to proszę.
Yukio coś dalej tworzy.
Następna kwestia od naszego słuchacza Matiusa.
Uruchomiłem skrót w iPhone’ie, który ma zrobić zrzut ekranu i wysłać go do OpenAI,
aby go opisała czasem zamiast uruchomić swoje pole edycji z dodatkowym pytaniem, jakie do sztucznej inteligencji mamy,
nie uruchamia tego pola i otwiera tylko skróty. Nie pokazuje żadnego błędu.
Jak uruchamiam skrót ręcznie, ze skrótów, to uruchamia i po chwili mówi, że wykonano,
a informacji nie ma żadnej, a innym razem działa poprawnie i prawdopodobnie tu nasz słuchacz chciałby jakiejś porady.
Nie wiem, czy ktoś z was coś?
Chyba nie. To kolejna.
Może coś z internetem, jakiś problem z jakimś tam, z tym API, no też wkrótce nie są zbyt szczegółowe jak chodzi o jakieś logi.
Debugowanie.
Nie wyświetlają specjalnie żadnych crashlogów, żeby ustalić przyczynę, co się tam zostało.
Następna kwestia. Czy znacie jakiś program na Windows 11, który odczyta pliki w formacie winbrailla?
Znalazłem najnowszą instalkę oryginalnej, ale u mnie aplikacja nie działa.
Mam 64-bitowy system, może w tym jest przyczyna, choć nie jestem pewien, dlatego szukam alternatywy.
Euler nie potrafi otwierać tego typu plików.
No niestety, ja nie wiem.
Nie wiemy. Może któryś z tych darmowych programów, które przetwarzają Braille’a.
Któryś ten Saumai, Braille Transcriber.
Tak, ja właśnie, właśnie…
Albo Biblos.
Albo jakaś aktualizacja jest, sobie zobaczę. No właśnie, może Biblos.
Saumai, zaraz właśnie patrzę jakie tutaj są wspierane pliki.
Powiem tak, nie widzę tutaj konkretnie formatu pliki WinDrive, nie wiem w jakim on formacie zapisywał, ale na pierwszy rzut oka Sauma i przynajmniej chyba nie ma takiej opcji.
I jeszcze mamy jedno pytanie. Jak zrobić aby GPT w iPhone odpowiadał głosowo?
No tam w aplikacji ChatGPT jest przycisk, którym aktywujemy ten voice mode i wtedy zadajemy pytanie i dostajemy odpowiedź głosową.
W opcjach tego można sobie też wybrać głos jakim ma odpowiadać i język też w jakim ma do nas się zwracać.
O, to jeszcze nie koniec.
Vision jest na iPhona, ale Envision?
Czy o jakie Vision pytasz? Jeżeli o InVision chodzi, no to tak.
Jest, jest.
Jest. I to na razie tyle, ale jeszcze tu widziałem, że było jedno pytanie na YouTubie od Eweliny.
Cześć, mam pytanie. W jaki sposób w aplikacji WP Pilot na iOS zrezygnować z zakupionych pakietów telewizyjnych?
Czy ktoś z was korzysta z wykupionych pakietów na WP Pilocie?
Ja przestawiam korzystać jak to zostało wymagane by być.
Natomiast ja bym w wystawieniach sprawdził czy gdzieś tam opcja jest.
Jeśli te pakiety były zakupione władnościami wewnątrz aplikacji
no to jest opcja żeby po prostu w App Store je anulować.
Czyli wchodzimy sobie do App Store’a, wchodzimy w przycisk moje konto
i tam na samej górze gdzieś będzie przycisk do subskrypcji i tam można sobie to anulować.
Natomiast jeśli zakupów dokonałaś jakąś inną metodą,
no to po prostu, no to pewnie też gdzieś będzie w ustawieniach na pewno.
Czasem te subskrypcje warto sobie przejrzeć i sprawdzić może po kwotach na przykład,
bo ja zauważyłem, że niektóre subskrypcje, miałem kilka takich przypadków,
że niektóre subskrypcje są jakoś bardzo dziwnie nazwane.
Któraś aplikacja, już teraz nie pamiętam, która kiedyś po prostu miała nazwę subskrypcja, tak po prostu.
I tylko po cenie wiedziałem czego dotyczy.
Chyba magazyn pres miał coś takiego.
Albo ma nawet cały czas.
I to na razie tyle.
Ale to nie tyle oczywiście jeżeli chodzi o Tyflo Przegląd.
Jeszcze troszkę informacji przed nami.
No i teraz rzeczywiście już mam nadzieję, że nie będzie fal startu.
pakiety standardowe newsów, czyli może najpierw drobne newsy, bo też jest troszkę.
No to w takim razie, tutaj zarówno ja i Paweł mamy trochę drobnych newsów.
Zaczniemy od dodatku do NVIDIA, a mianowicie dodatku, który pozwoli Wam korzystać w łatwy sposób z tłumacza DeepL.
Tłumacz DeepL, który przez wielu osób jest uważany jako lepszy od tłumacza Google.
M.in. tak myślała osoba, która postanowiła wykorzystać ten dodatek np. do grania w różne gry, czy generalnie po prostu tłumaczenia sobie różnych rzeczy na komputerze.
Zrobione to zostało w taki sposób, że został zmodyfikowany dodatek Translate Janika Placerta, który pozwala nam jednym skrótem wyłączyć lub wyłączyć automatyczne tłumaczenie.
przepraszam, mamy dwa dodatki, jest ten Instant Translate, który gdzieś tam pozwala
tłumaczyć schowek i zaznaczony tekst i tak dalej, języki sobie ustawiać.
No i mamy ten właśnie dodatek Translate, który po prostu pozwala nam ustawić
tylko język docelowy i jednym skrótem sobie włączyć lub wyłączyć automatyczne
tłumaczenie. Tłumaczenia też są zapisywane w cache’u, tak zwanym, że jeśli
właśnie mamy jakąś aplikację, którą sobie tłumaczymy, no to tylko za pierwszym
gdzie się tłumaczenie jest wysyłane na serwer, a później już to jest czytywane z cache’a.
Te dodatki oba na raz nie mogą być zainstalowane, niestety, więc no musimy jakby zdecydować czy chcemy mieć
ten, który korzysta z Google’a, to ciekawe on ponoć w ogóle korzysta z tego Google’a przez jakieś nieoficjalne
API, więc jeśli dużo z niego korzystamy to to może nam zablokować.
No tutaj już jak najbardziej korzystamy z API DeepL’a oficjalnego, do którego musimy sami sobie pozyskać
klucz. Można to zrobić za darmo. Wtedy jest limit
chyba kilkudziesięciu tysięcy znaków na dzień, natomiast też
możemy sobie Deepella Pro wykupić, co też nie jest jakoś bardzo
drogie, jeśli faktycznie dużo tłumaczymy, co tam chyba na stronie
pisało, że coś 7 dolarów miesięcznie.
Natomiast na stronie Deepella musimy najpierw sobie założyć
konto. Do założenia konta i są potrzebne też dane karty, natomiast
karta nasza, no nie będzie z niej opłata pobierana, chyba, że
czasami zdecydujemy się na ten krok, kiedy już sobie to konto założymy, to tam na stronie będziemy mogli sobie klucz API ściągnąć.
Po instalacji dodatku doda on swoją sekcję do ustawień MVDA, w której będziemy mogli, ta sekcja będzie się po prostu Translate nazywać, tam ten klucz wpisujemy.
Kiedy już go wpiszemy, to zamiast tego pola na klucz pojawi nam się lista rozwijana, która nam pozwoli wybrać język docelowy.
Jeśli nie chcemy, żeby dodatek nam tłumaczył na język NVIDIA czy systemu Windows
no i kiedyś już sobie wszystko pokonfigurujemy tak jak chcemy
no to wystarczy skrótem NVIDIA CTRL-SHIFT-T
żeby ten dodatek włączyć
no i wtedy cokolwiek NVIDIA nam powie zostanie przez serwer Deepera przepuszczone i przetłumaczone.
Można sobie też ten cache wyczyścić gdyby coś z nim poszło nie tak
Oczywiście tutaj autor oszczega, że wszystko co nam MVDA powie, będzie wysłane na serwery Deepera, więc lepiej tego nie robić, jeśli faktycznie czytamy jakieś dane bardziej prywatne, natomiast w wielu sytuacjach ten dodatek może się jak najbardziej przerać, jeśli wolicie jakość tłumaczenia Deepera w porównaniu z tym, co nam oferuje Google, czy np. Yandex, czy inne usługi, z których inne dodatki korzystają, to myślę, że to jest całkiem sensowne.
Link będzie w komentarzu. Dodatek na razie w sklepie nie jest i chyba na razie nie będzie.
Przynajmniej tak tutaj autor sugeruje.
Natomiast można go sobie po prostu z GitHuba ściągnąć.
Nie trzeba nic kompilować. Wystarczy plik pobrać sobie i zainstalować.
Teraz sobie trochę pospekulujemy.
Paweł wspominał, że będziemy do tematu konwencji CSUN wracać.
No i poniekąd wrócimy, bo Brian Hartgen na Mastadonie ostatnio napisał, że dostał
sobie takiego maila, newslettera od firmy Himes, że właśnie na konferencji C-ZAN,
która zacznie się właśnie w przyszły poniedziałek i będzie właściwie trwać cały
tydzień, pokażą nowy produkt i zachęcają, jeśli ktoś tam będzie, żeby podszedł
do ich budki, do ich stoiska i po prostu tam będzie można nawet coś wygrać
no i zobaczyć ten produkt.
No oni w tym mailu próbują podbijać atmosferę, nie chcą zdradzić jaki to jest
produkt i nie wszystkim
się ta strategia marketingowa podobała.
Natomiast myślę, że dziś możemy tajemnice trochę uchylić, bo kilka dni
wcześniej inna osoba też na małym stronie zwróciła uwagę na ciekawe
zmiany, które ktoś do kodu NVDA w styczniu chciał wprowadzić.
Wysłał tzw. pull request, czyli prośbę o wprowadzenie jakiś poprawek w kodzie.
Przez to, że NVDA jest projektem otwarto źródłowym, takie informacje jak kiedykolwiek,
no bo każdy może takie zmiany wprowadzać, to jest wszystko publicznie widoczne.
No i jakaś osoba, prawdopodobnie pracownik firmy HIMS wysłał taki pull request.
chciał do NBA włączyć wsparcie dla dodania nowego protokołu komunikacyjnego dla monitorów Braille Edge.
Protokół nazywa się SPP i tak naprawdę tylko o nim wiemy, że to jest jakiś nowy protokół.
W komentarzu do tego pull requesta ta osoba napisała, że to będzie używane właśnie dla nowych monitorów Braille Edge,
które mają jakiś tam inny chip, natomiast jeśli ktoś jeszcze ma starszy monitor no to cały czas powinien korzystać z tego starszego sterownika, który już tam po prostu był wcześniej.
Ja szukając tego pull requesta znalazłem jeszcze jeden, który oprócz tego nowego protokołu, cały czas nie wiemy jakie on nam będzie dawał plusy, wprowadza jeszcze jedną zmianę,
a mianowicie dodaje również wsparcie dla protokołu HID dla monitorów Braille Edge.
Więc te nowe Braille Edge, czy jak się ten monitor będzie nazywał,
no nie wiemy więcej o nich, poza tym, że prawdopodobnie to właśnie o to chodzi.
No na pewno wiemy, że będą wspierały protokół HID, czyli ten nowy taki standard
do obsługi monitorów braille’owskich, który sterowników tak naprawdę gdzieś nie wymaga,
ale będzie też wspierać coś jeszcze, co pewnie może będzie oferowało jakieś dodatkowe funkcje.
No dla tych, którzy nie wiedzą, Braille Edge to taki już dosyć stary monitor,
który chyba ostatnią aktualizację gdzieś miał w roku 2013.
On był bardzo lubiany, no taki dosyć zgrabny monitor,
ale on miał dużo klawiszy, które pozwalały nam całkiem fajnie nawigować po systemie.
Śpiewał zarówno USB i Bluetooth.
No ale z czasem został zastąpiony przez monitor Coolbrail XL,
który jest trochę większy mimo wszystko gabarytowo,
dlatego że ten monitor to już ma taką namiastkę klawiatury poniekąd,
bo ma szczałki, ma 12 klawiszy funkcyjnej, ma Ctrl Shift i tak dalej, no zamiast klawiatury QWERTY ma taką klawiaturę Braille’owską, no pewnie jakiś fanów znalazł.
No natomiast ci co lubili Braille Edge’a za to, że to był taki bardziej kompaktowy, no to pewnie takim osobom Qbraille mógł się nie podobać.
W międzyczasie wyszedł Mantis dla tych, którzy chcieli prawdziwą klawiaturę QWERTY, który nie wiem gdzieś, mam wrażenie, że chyba się trochę lepiej sprzedaje.
gdzieś nawet patrząc na to jak nawet za granicą ludzie w mediach społecznościowych piszą.
Więc może firma postanowiła, no przez to że też Coolbrail na przykład nie ma żadnych
funkcji Wi-Fi, a gdzieś te nowe monitory takie mają, po prostu BrainEdge’a odświeżyć.
Co zostanie dodane? Nie wiemy.
No pomysłów jest wiele.
Może będzie właśnie jakaś obsługa czytania książek, pobierania ich bezpośrednio z bibliotek.
No kto wie co mogą dodać.
Może będzie jakaś synteza mowy.
Kto wie co może być.
Może jakiś mikrofon może właśnie obsługa.
może jakieś wejście słuchawkowe i będzie obsługa trybu słuchawek, tak jak to na przykład na SensePlayerze jest, no pomysłów, co to urządzenie mogłoby robić oprócz tego, że będzie fajną liniką rajdowską, no można szukać.
Co nam pokaże w praktyce, no tego dowiemy się pewnie w przyszłym tygodniu, kiedy ludzie na ten CSUN pojadą i jakieś informacje zaczną do nas wpływać.
Na pewno do tematu wrócimy i będziemy was informować, co dokładnie firma
Himes na tej konferencji zaprezentowała.
Teraz coś dla fanów Androida.
Czytnik ekranu Prudent Screen Reader, czyli taki fork TokPeka stworzony przez
bodajże chińską społeczność, który kilka gdzieś ciekawych funkcji dodał.
On był przez dłuższy czas dostępny w sklepie Play, co było takim dosyć dużym
plusem tej aplikacji w porównaniu np. do Joshua, który jednak trzeba było gdzieś ściągać
zewnętrzny źródeł, co za tym idzie też na frekwencjach Androida, tam trzeba było przez to
przyznawać mu więcej uprawnień.
Natomiast on ze sklepu Play na jakiś czas zniknął.
Ja nawet o tym nie wiedziałem, ale przez post
Accessible Android Portalu dowiedziałem się o tym, że właśnie zniknął, ale na
szczęście już do sklepu Play wrócił i ponadto autorzy obiecują, że jakieś
aktualizacje niebawem się mają pojawić, które nam dziś więcej funkcji do tego czytnika ekranu dodadzą.
Jakie to funkcje? No na ten moment nie wiemy, natomiast fajnie, że gdzieś jakieś
alternatywy to dla zarówno Talkbaka, jak i Joshua nadal się rozwijają.
Życzę tutaj dalej powodzenia temu projektowi, no jeśli będziemy wiedzieć coś więcej, to na pewno
tutaj też damy wam znać.
No i kolejna wiadomość, o której nie wiemy praktycznie nic poza tym, że będzie.
Tutaj znowu wiadomość, o której dowiedzieliśmy się przy okazji
takiej konferencji Microsoft Ability Summit, czyli no właśnie
gdzieś takiej konferencji, gdzie Microsoft trochę mówi o tym,
jak poprawia życie osobom z niepełnosprawnościami.
Jak się można domyślić w tym roku tutaj był duży nacisk na
sztuczną inteligencję.
Między innymi też było powiedziane, że Compilot będzie w stanie
na przykład nam w Windowsie narratora włączyć takie rzeczy,
Rzeczy, które Cortana kiedyś też potrafiła zrobić.
Powiedziano też m.in. o tym, że będą te spersonalizowane głosy neuronowe.
Trochę tak jak to jest na iPhone’ie.
Patryk o tym jakiś czas temu do nas dzwonił, mówił.
No i dowiedzieliśmy się jeszcze o jednej rzeczy.
To napisał Michael Babcock na Mastodonie, że na Windowsie pojawi się Be My AI.
I tutaj nie wiem, czy faktycznie tylko mowa jest właśnie o asystencie Be My AI czy o aplikacji Be My Eyes.
No on to dosłownie napisał BeMyAI, co na pewno w jakichś zastosowaniach znajdzie.
Inna sprawa, że no przez to, że teraz mamy naprawdę kilka fajnie rozwiniętych
dodatków do tego typu rzeczy, no to gdzieś jakiś już dostęp do tego mieliśmy.
No wiadomo, trzeba było sobie wykupić klucz API, a jednak BeMyAI jest darmowy
i nie trzeba tam nic konfigurować, więc myślę, że to może być plus.
Inna sprawa, że gdyby faktycznie dało się też tej aplikacji zadzwonić do jakiejś
osoby widzącej i udostępnić ekran, żeby ta osoba nam pomogła w jakiejś sprawie na
komputerze. No nie wiem jak wy, mi się wydaje, że coś takiego by się mogło przydać.
Zdecydowanie, zdecydowanie tak.
No właśnie, kiedy ta aplikacja się pojawi?
W lecie, więc nie wiemy dokładnie kiedy, natomiast w najbliższych miesiącach, kiedy
tylko się pojawi, no to znów tutaj na pewno też do tego tematu wrócimy.
Myślę, że też będzie warto czekać na to, co zostanie pokazane.
To wszystko ode mnie, ale tradycyjnie to jeszcze też nie jest koniec.
Tak jest, bo jeszcze chyba Paweł miał kilka tutaj newsów.
Tak, mam, mam. Nie wiedziałem, że się wyciszyłem znowu. Okej, w porządku.
No więc co się dzieje? Mamy produkty HumanWare,
które są sobie na rynku, rozwijają się i mamy zapowiedzi tego, co się w najbliższym czasie w nich zmieni i to w dwóch z nich, bo w Victor Reader Streamie trójce i w Matisach, czyli w monitorach brailowskich.
To wiemy dzięki wywiadowi, jaki przeprowadziła ekipa Double Tap Kanada z przedstawicielami właśnie Simon Werra.
Okazuje się, że to są niewielkie zmiany, nie są jakieś rewolucyjne, ale pewnie użytkowników ucieszą.
Czyli Victor Reader z Dream 3, znaczy tak, 3 Victor Reader, będzie miał sortowanie książek alfabetycznie, a nie według kolejności dodania,
bo ponoć o to wiele osób prosiło, no i będzie szybciej, 4-5 razy szybciej działał z dużymi kartami pamięci, gdzie będzie rzeczywiście dużo tych książek załadowanych.
Natomiast w Mantisie będzie dodana możliwość przestawiania elementów menu, tak jak nam się podoba.
Też kolejna nowość Sisanova, która będzie tam prezentowana szerzej.
Sony, doczekało się oznaczeń, wyczuwalnych oznaczeń portów, w które wpina się różne kable, to w telewizorach Sony Bravia i w Soundbarach, żeby udało nam się te telewizory i Soundbary razem połączyć i będzie o tym szersza prezentacja na CSUN, więc myślę, że warto te konferencje jak najbardziej śledzić.
Tymczasem jeżeli szukacie jakiejś wagi do ciała, która byłaby dostępna z dostępną aplikacją i można by tam wszystkie dane sobie spokojnie podglądać, to tutaj od użytkownika z Węgier, od Eriona, szybka porada.
Ponoć dostępna w Lidlu waga firmy Silvercrest. Silvercrest to taka typowa lidlowska firma, która różną elektroniką handluje.
Waga SilverCrest BSF 7.5
No i tu ponoć mamy dostępną całkiem aplikację, wszystko można połączyć przez bluetooth
Mamy dostęp do wszystkich naszych pomiarów i danych, czy kalorycznych, czy w kilogramach, czy różnych innych
Wszystko ponoć aplikacja czyta
Jest możliwość też konfiguracji do 8 osób, które będą z tej jednej wagi korzystać
Jedyna rzecz, która jest rzekomo niedostępna to parowanie, bo trzeba wprowadzić sześciocyfrowy kod PIN, który chyba gdzieś tam na ekranie tej wagi się wyświetla i tego niestety sami nie zrobimy.
Natomiast jak już połączymy tą wagę z telefonem, to już ponoć to wszystko działa.
No, Erion mówił o cenie 18 euro, więc jak najbardziej tania rzecz.
Patrzyłem w Polsce też jakieś, widać ślady, jakoby można ją było kiedyś przynajmniej dostać, bo widziałem na Allegro w archiwum.
No może jeszcze gdzieś da się kupić, może jeszcze do Lidla kiedyś wróci, to warto się rozglądać.
Może skoro ta waga jest dostępna, to też z innymi produktami Silvercresta nie ma problemu.
Myślę, że warto się tematowi przyjrzeć.
Teraz informacja ciekawa dla użytkowników Maca.
Gdyby Wam się kiedyś zawiesił i okazuje się, że wtedy restart VoiceOvera nie pomaga,
To proces, który należy zakończyć, uruchomić ponownie, nazywa się SCROD, to taka porada szybka.
No i wyciekły też plany nowych funkcji dostępności w iOS 18, który ma się ukazać pewnie jakoś w czerwcu, coś o nim usłyszymy więcej.
Natomiast tutaj jakieś źródło bliskie portalowi MacRumors dokonało wycieku i wiemy, że ma się pojawić opcja konfigurowania tak zwanych Adaptive Voice Commands, czyli polecenia głosowe specjalne do uruchamiania funkcji dostępnościowych.
Nie wiem do końca jak to ma działać. Czy to będzie takie kolejne Hey Siri, które będzie wysłuchiwało gdzieś tam w tle jakichś naszych konkretnych komend i na naszą komendę włączy voice overa albo wyłączy?
Nie do końca rozumiem, jak to ma działać, też w tej opcji Live Speech, gdzie możemy rozmawiać jako osoby, które nie są w stanie mówić, porozumiewać się z otoczeniem, to te takie różne zwroty, frazy, wyrażenia, których często używamy, będzie można w tej opcji pogrupować na kategorie, no i więcej aplikacji natywnych tych iOS-owych będzie mogło korzystać z dynamicznej czcionki.
Także to wiemy na razie, ale jeżeli już tak wcześnie mamy jakieś wycieki to myślę, że w maju będzie kolejna zapowiedź już oficjalna od Apple, bo Światowy Dzień Świadomości o Dostępności a w czerwcu to już potem będzie pełny release i testerzy będą sami odkrywać jakieś różne nowe funkcje.
No i ostatnia drobna wiadomość na dziś.
Brunify cały czas gdzieś tam się chwali tym co koduje.
No i następna aplikacja po Blind Nerd Toolboxie
to będzie prawdopodobnie Weather Monitor, czyli jakaś aplikacja do podglądu pogody.
Zaglądam tymczasem, zanim kolejne wieści to zaglądam do komentarzy.
Na Whatsappie nam Łukasz napisał przedługą wiadomość, w ogóle taka prośba.
Jeżeli macie nam zamiar wysyłać takie sążniste treści, to wysyłajcie je proszę na chociażby kontakt.tyflopodcast.net,
bo Whatsapp no nie jest najlepszy do czytania potem takich wiadomości tekstowych.
Ja teraz, żeby z tą całą wiadomością od Łukasza się zapoznać, to musiałem ją sobie skopiować z Whatsappweba do,
a właściwie nie z Whatsappweba nawet, tylko z Whatsappa na telefonie z aplikacji WA Biznes do Whatsappa mojego własnego,
przerzucić sobie, skopiować i wkleić do panelu kontaktowego, żeby wyświetlić ją jakoś sensownie w widoku do czytania, żeby po prostu jakoś fajnie teraz ją przeczytać.
Ale to tak tylko na marginesie. Łukaszu, spróbujemy odpowiedzieć na twoje pytania.
Cześć, witajcie. Dzisiaj mam kilka informatycznych pytań. Co to jest API i co to są silniki programistyczne?
No, API to jest sposób, w jaki z daną usługą, z daną stroną internetową, czy z danym narzędziem możemy się komunikować.
Ty już swego czasu, Pawle, ty pokazywałeś jak takie API działa.
No najprostszym przykładem jest właśnie taki radio browser, czyli wysyłasz zapytanie do serwisu, co nie różni się specjalnie niczym od otwarcia strony w przeglądarce,
tylko że robisz to programistycznie, wydajesz polecenie, otwórz adres, czas załadu i zawartość adresu i tam wpisujesz całe parametry twojego zapytania albo wysyłasz dane, możesz je też wysyłać.
To jest, można powiedzieć, jak wygląda dany program dla innych programów, no to tak w dużym skrócie.
Tak, sposób komunikacji dla programów.
No i dostajemy jakieś dane i możemy sobie je przetwarzać, jakiś JSON na przykład.
I wysyłamy w jakiś sposób, powiedzmy jakąś komendę czy coś tego typu i otrzymujemy jakąś odpowiedź w tym samym formacie.
Tak, sposób fajny dla przetworzenia dla komputerów.
Natomiast pytanie o silniki programistyczne, to szczerze mówiąc nie wiem co akurat miałeś tu na myśli, jeżeli chodzi o silnik programistyczny, no bo mamy języki programowania, w tych językach możemy mieć też różnego rodzaju biblioteki, które nam ułatwiają tworzenie aplikacji.
Tak, bo silnik to jest dość nieprecyzyjne pojęcie, bo silniki mogą być w grach, ale to też jest coś w rodzaju bibliotek, tylko takich trochę większych, powiedzmy.
Czyli po prostu to są takie zbiory różnych funkcji, których można użyć w danym programie, żeby nie pisać ich od zera.
Bo skoro już ktoś wynalazł koło, no to w tym momencie my nie musimy, tylko po prostu korzystamy z jakiegoś gotowca, tak ogólnie mówiąc.
Następna rzecz. Często słyszymy, że aplikacja komputerowa, mobilna czy gra jest oparta na jakimś silniku.
No to właśnie tu jeszcze ułóżmy zupełnie. Czyli tak, jak działają humanoidalne roboty, z którymi można pogadać takie jak w Centrum Nauki Kopernik?
Czy są to tajemnicze maszyny z autorskim systemem operacyjnym, czy po prostu zwykłe komputery z Windowsem bądź Maciem zamknięte w pomysłowej obudowie?
Ja raczej myślę, że to jest jakiś Linux, ale tak, to są raczej zwykłe komputery,
gdzieś tam jest po prostu podpięty jakiś algorytm rozpoznawania mowy,
jakaś synteza, no tam pewnie jeszcze jakieś oprogramowanie,
ale generalnie to jest, sercem tego jest komputer, to może być komputer klasyczny,
no dzisiaj to też może być jakaś malinka, coś mniejszego.
Raspberry Pi, tak.
Tak, właśnie Raspberry Pi, no ale to jest generalnie komputer po prostu.
I prawdopodobnie przynajmniej część z tych robotów jest podpięta do jakiegoś czata GPT,
Nawet było swego czasu pokazane, jak ktoś tego czata GPT skutecznie zawiesił,
każąc chyba tam liczbę pi, żeby podał i on podał jakąś taką bardzo długą tę liczbę.
Jak wygląda infrastruktura techniczna sztucznej inteligencji z takich wynalazków jak GPT?
Czy jest to gigantyczny, super komputer o olbrzymiej mocy prądowej i obliczeniowej, do którego spływają zapytania z całego świata?
Ja raczej sądzę, że jest to ileś komputerów, że to nie jest jeden.
To jest zbiór komputerów na pewno wyposażonych w potężne karty graficzne, żeby to wszystko chciało działać.
Karty jak nie graficzne to są takie karty, które trochę działają częściowo jak graficzne, tylko są dedykowane właśnie do obliczeń związanych ze sztuczną inteligencją i podobno tak to raczej wygląda w tych serwerowniach.
No i to podejrzewam jest dużo różnych, tak jak Michał mówi, dużo różnych rzeczy, bo to jest za duża rzecz, żeby to jakiś, ale nie wiem, tak się zastanawiam, no to wiesz.
Ale zresztą z takiego, wiesz, punktu widzenia…
To trochę jak pytanie o Google’a, nie?
No to Google na pewno bazuje na połączeniu iluś mniejszych komputerów w jeden mocny,
co ma taki plus, że jeżeli nam się tam coś wykrzaczy, no to w tym momencie jakoś za bardzo nas to nie boli, tak?
Pada jedna jednostka, no to spoko, inne działają, w międzyczasie można sobie tę jednostkę wymienić.
a taki super komputer połączony w jeden organizm, nawet gdyby miał jakąś dużą moc obliczeniową,
a wiadomo, że w takich serwerach są te metody, chociażby tak zwany hotswap,
że na przykład jak nam pada jeden komponent, to bez wyłączania takiego serwera można wymienić go na inny,
natomiast no to raczej kiedyś tak podchodzono do tego, z tego co wiem, to właśnie w ogóle Google zapoczątkował ten sposób działania,
że bardziej łączymy zwykłe komputery, zwykłe PeCety nawet po prostu w jeden duży organizm, który coś przetwarza.
Wiemy jedną rzecz, tak teraz sobie przypomniałem, że na pewno OpenAI ma dosyć takie duże partnerstwo z Microsoftem,
więc pewnie korzystają z ich chmury, zresztą mówili na to chmura Azure, akurat tak sobie to Microsoft nazwał.
Drugi plus tego rozwiązania jest taki, że takie komputery, takie serwerownie są roślane na całym świecie,
więc prawdopodobnie jeśli my korzystamy z czata GPT, no to pewnie nasze zapytania trafiają do takiej serwerowni w Europie,
a ktoś, kto to zrobi gdzieś na przykład w Stanach czy w Tokio,
no to będzie rozmawiał z komputerami gdzieś właśnie w Japonii czy w Stanach Zjednoczonych,
dzięki czemu to po prostu działa szybciej.
Aczkolwiek i tak z punktu widzenia programisty to to wszystko działa jak jeden organizm, tak?
Tak, dokładnie. Jest jeden adres, a komputery później sobie między sobą decydują,
gdzie to nasze zapytanie ma trafić po prostu.
I kolejne pytanie.
W jakim języku pisane są programy bazujące na sieciach neuronowych,
które napiszą za nas wypracowanie, podadzą przepis na pizzę, czy opiszą zdjęcie,
co jest bardzo pomocne dla nas niewidomych.
Z góry dziękuję za odpowiedź i pozdrawiam.
A to jest też ciekawa rzecz. Ja bym stawiał na Pajtona.
Głównie tak. Coś tam, pewnie jakieś mniejsze części w C,
te części, które komunikują się z kartami graficznymi.
Natomiast to, w jaki sposób programici później z takimi modelami pracują,
to jest w 90% chyba Pajton.
Tak jest, bo to jest jednak, no, bardzo rozpowszechniony też ostatnimi czasy język i dużo jest też narzędzi właśnie do sztucznej inteligencji,
z których się korzysta, które po prostu bazują na Pythonie. Python to taki język z jednej strony dosyć prosty, z drugiej strony, no, który ma naprawdę całkiem spore możliwości.
Zastanawiam się ile w tym Pythonie Pytona to znaczy inaczej, bo wiem, że na pewno, no Whisper chociażby, którego tutaj używamy, zresztą nie tylko my, no to ten udostępniany rzeczywiście ludziom, no to jest Python.
Natomiast są takie Whisper, ten X, Fastener, Whisper, no to też jest poniekąd Python, tylko taki Python, który tam niejako nie jest do końca Pythonem, zdaje się, te wszystkie C Translate.
No właśnie CPP, tak, Whisper CPP, czyli tam C++ chociażby jest gdzieś wykorzystywane.
Ja się zastanawiam po prostu, na ile to, co dał OpenAI nam, to jest jedno, ale ciekawe, czy oni korzystają też u siebie w tych chmurach z tej implementacji,
no bo skoro im pokazano, że, no słuchajcie, można lepiej, no to pytanie, czy oni, znaczy tego oczywiście nie wiemy, natomiast ja się po prostu zastanawiam,
ale to jest pytanie bez odpowiedzi, żeby nie było, raczej przynajmniej u nas,
to chyba trudno tu będzie tak autorytatywnie stwierdzić, że to jest Python albo nie Python,
no bo pytanie też są tam, mają…
Ja mogę tylko się domyślać jeszcze na jednej podstawie, to znaczy oczywiście fajnie,
że ktoś stworzył te algorytmy chociażby w C, czyli języku, jak dobrze pamiętam,
niższego poziomu niż Python, bo Python jest językiem wyższego poziomu,
czyli teoretycznie prostszym. I właśnie też tu o to chodzi, że po prostu w tych językach niższego poziomu,
właśnie C, no przede wszystkim Assembler, tak, jak mówimy o języku, o programowaniu niskopoziomowym,
to mówimy o Assemblerze, to trzeba też pamiętać o jednej rzeczy. W takich językach to trzeba o znacznie większej
ilości różnych rzeczy pamiętać, żeby ten program działał dobrze. Im wyższy język, tym stworzenie programu
jest, no, łatwiejsze, nie musimy się martwić o różne rzeczy,
bo po prostu dane środowisko w danym programie za nas, no,
po prostu posprząta pewne kwestie i sprawi, że nie będziemy musieli się tym przejmować,
jakieś kwestie związane chociażby z alokacją pamięci i tak dalej, i tak dalej.
I ja dlatego właśnie też mam takie wrażenie, że skoro problemem nie jest moc obliczeniowa,
to nieważne, że okej, jakbyśmy to napisali w C,
no to moglibyśmy uzyskać te, działanie tego programu ileś tam razy szybsze.
No dobrze, ale ile czasu zajęłoby nam napisanie tego w C?
Możliwe, z drugiej strony skoro whisper się, ale nie wiem, no to po prostu jest taka dyskusja, z której chyba niewiele wyniknie, tak?
Może jakiś programista do nas zadzwoni, coś powie, ciekawego?
Znaczy, powiem w ten sposób, chyba nie odpowiemy na to pytanie w gruncie rzeczy.
Możemy sobie podywagować oczywiście, ale to są takie nasze przemyślenia na temat.
Tak. No dobrze, to co, przechodzimy do drugiej garści newsów chyba w takim razie, czyli do nowości w grach, żeby tak troszeczkę rozluźnić tutaj tematykę.
Tak jest. No to co, zaczniemy sobie od takiej jednej nowej gry, która się pojawiła.
Gra nazywa się Gold Knight i to jest gra, no której teoretycznie właśnie gramy po prostu złotym rycerzem.
To jest gra, która w pełnej wersji jeszcze się nie pojawiła. Na razie jest darmowe demo dostępne na Windowsie i na Linuxie.
Zarówno na platformie Steam, jak i itch.io, więc jak kto woli można i stąd i stąd pobrać sobie.
Gra jest z pozoru prosta, no bo generalnie po prostu chodzimy sobie tym rycerzem i musimy dojść do celu, którym po prostu jest taka muzyczka, to jest wyjście z poziomu, musimy sobie gdzieś do tej muzyczki dotrzeć, natomiast jak to często bywa, ta gra jest taka dość zagadkowa, bo po prostu z kolejnymi poziomami będziemy napotykać coraz trudniejsze przeszkody.
Zaczyna się wszystko od przepaści, które po prostu musimy ominąć i kiedy podejdziemy na krok do przepaści, no to dostajemy o tym informację.
Też możemy, no generalnie w ogóle sterowanie w tej grze jest banalnie proste, no bo po prostu chodzimy strzałkami albo WSAD, można i tak i tak.
Jeśli do tych strzałek naciśniemy shift, no to zamiast chodzić po prostu rozglądamy się.
Naciśniemy siwczałkę w górę, no to gra nam po prostu powie, czy to pole akurat, które jest przed nami jest bezpieczne, czy tam jest dziura, czy tam jest ściana, czy coś innego.
Więc po prostu generalnie chodzi o to, żeby się rozejrzeć i w odpowiednie miejsce zrobić krok.
No, zaczyna się właśnie od dziur, które po prostu musimy ominąć.
Potem będziemy napotykać pułapki, które po prostu musimy szybko przejść.
Bo kiedy staniemy na takiej pułapce, to słyszymy, że nam się ziemia zaczyna zapadać.
no i jeśli nie zrobimy, jeśli nie zejdziemy z tej pułapki, no to po prostu spadniemy, więc to już mamy pierwszą przeszkodę.
Potem jeszcze dostaniemy pułapki, które działają odwrotnie.
Usłyszymy dźwięk inny i w momencie, kiedy ten dźwięk słyszymy, po prostu nie możemy nic zrobić.
Musimy po prostu poczekać, kiedy ta pułapka się wyłączy, no i wtedy możemy sobie przejść dalej.
Potem jeszcze będziemy mieli przeszkodę, którą jest takie jakby wahadło, które się rusza i po prostu jeśli nas uderzy,
jeśli przejdziemy obok niego w nieodpowiednim momencie no to po prostu nas zabije i będziemy musieli poziom zacząć od nowa.
Potem jeszcze zaczną się pojawiać jakieś potwory, no a żeby potwory zabić będziemy mogli na poziomie gdzieś zdobyć miecz.
Mieczem po prostu machamy spacją no i też musimy po prostu odpowiednio podejść do tych przeciwników i po prostu ich pokonać.
No na początku to jest łatwe, no bo oni po prostu sobie tylko stoją i po prostu nie możemy w nich wejść.
Ale późniejsi przeciwnicy to też dostaną miecze i my sobie możemy ich atakować,
ale jeśli usłyszymy odpowiedni dźwięk, no to musimy zrobić krok w bok i zrobić unik,
bo inaczej po prostu nas zabiją.
Później, no i oczywiście w międzyczasie cały czas mamy te inne przeszkody,
jakieś dziury i te inne pułapki, więc no te poziomy się robią coraz bardziej komplikowane.
Później dostaniemy jeszcze ptaszka, którym możemy sobie latać i eksplorować poziom bez wylania głowy, więc możemy sobie spokojnie rozejrzeć jak dany poziom wygląda zanim gdzieś zaczniemy sobie ścieżkę obierać, jak dany poziom przejść.
No więc gra robi się coraz trudniejsza na konto, nawet jest boss w tym demo, którego musimy pokonać.
No i autor obiecuje, że kiedy gra się pojawi, tych poziomów będzie więcej.
Grę bardzo gorąco polecam, bo sterowanie jest banalnie proste, a rozgrywka jest zaskakująco trudna, więc myślę, że warto sobie tą grę ściągnąć, jeśli macie komputer z Windowsem lub z Linuxem, no ewentualnie na wirtualnej maszynie na Macu też powinno pójść, także Gold Knight, link będzie w komentarzu, gorąco polecam.
Następnie coś, co już zapowiadaliśmy jakiś czas temu, bo ogłoszenie o tym było przy okazji konferencji Microsoftu, tym razem związanej z Xboxem, a mianowicie gra As Dusk Falls, która już dostępna wcześniej była.
To jest gra, która opowiada o dwóch rodzinach, których losy się łączą na ich dwudziestoletniej historii.
Ze sobą w ogóle skaczemy między rokiem 98, a powiedzmy corażniejszością rok 2018.
No, tam w tej grze generalnie chodzi o to, że musimy odpowiednio decyzje podejmować w odpowiednich momentach
i każda decyzja jaką podejmiemy ma później wpływ na tą fabułę.
Zdarzają się też sytuacje, kiedy będziemy musieli
nacisnąć odpowiednie przyciski w dobrym momencie, tak na przykład na samym
początku gry jest sytuacja, kiedy jedziemy sobie ze swoją rodziną w samochodzie i sobie
rozmawiamy i nagle nadjeżdża z drugiej strony inny samochód i musimy po prostu
obrócić kierownicę w odpowiednim momencie, nacisnąć gałkę w lewo lub w prawo, żeby
zrobić unik. Wiem, że też później są inne minigry, w których na przykład rzucamy
lotkami w warze, musimy też się ratować, tam wiem, że później gdzieś się pojawia motyw napadu.
Jeszcze też tą grę dopiero zaczynam przechodzić, no bo właśnie w najnowszej aktualizacji
gra stała się jeszcze bardziej dostępna, bo wcześniej tam czytnik ekranu był i grę dało się spokojnie przejść od początku do końca,
ale teraz została urozmaicona przez Audio Deskrypcje.
Audio Deskrypcje zrobiono przez dobrą znaną firmę Descriptive Video Works,
która zrobiła deskrypcje do wielu filmów i seriali
angielskich, amerykańskich, brytyjskich, ale nie tylko, bo też zaczynają się jakoś
specjalizować w audiodeskrypcji do gier, bo to oni też zrobili audiodeskrypcje do gier
takich jak The Last of Us, Mortal Kombat czy Spider-Man, o którym za chwilkę też powiem
więcej. Natomiast w tamtych przypadkach ta audiodeskrypcja była czytana przez
lektorów, a w tym przypadku po prostu będzie nam podawana przez syntezę w samej grze.
Niestety, mimo to, że no właśnie synteza gdzieś jest dostępna w wielu językach, no to
audiodeskrypcja jest dostępna wyłącznie w języku angielskim.
Napisy zresztą też nie są przez syntezę czytane, więc warto raczej w tą grę, jeśli
znacie język, grać po angielsku, no bo po prostu wtedy będziecie też tą audiodeskrypcję
Jeśli chodzi o tą aktualizację no to w ogóle gra wcześniej była dostępna na komputerach jak i na konsolach Xbox, zarówno na Steamie jako w części abonamentu Game Pass, więc jeśli sobie Game Passa wykupiliście np. dla Forzy, no to As Dusk Falls macie też w pakiecie, możecie sobie po prostu wejść do aplikacji Xbox i ją po prostu ściągnąć, ewentualnie możecie ją sobie osobno kupić, ona chyba kosztuje gdzieś około stówy,
zarówno na platformie Xbox, jak i na Steamie, ale też przy okazji pojawiła się na konsolach PlayStation, zarówno PlayStation 4 i 5.
To właśnie tamta aktualizacja pojawiła się najpierw, ale już po kilku dniach też na innych platformach też się pojawiła.
I na wszystkich wersjach mamy zarówno właśnie ten czytnik ekranu, który włączy się automatycznie przy pierwszym starcie gry,
jak i audio deskrypcje, wersja na Playstation też wspiera dodatkowe funkcje, które są oferowane przez kontroler na tej konsoli, czyli taką lepszą haptykę i wsparcie dla tych adaptacyjnych spustów, które nam gdzieś mogą w odpowiednich momentach stawiać opór na przykład.
No także jeśli jeszcze nie graliście, no to myślę, że warto, fajnie, że kolejne gry gdzieś stają się jeszcze bardziej dla nas dostępne i zaczynają oferować audio deskrypcje.
zwłaszcza, że w tym przypadku to jest taka no pół gra, pół film, można powiedzieć, film kryminalny,
to jak najbardziej w takich sytuacjach taka audiodeskrypcja ma sens i myślę, że warto się tą grą zainteresować, zwłaszcza teraz.
No i a propos rzeczy, które dostały audiodeskrypcję.
Tutaj już temat był wywołany wcześniej, a propos drugiej części gry Marvel’s Spider-Man na PlayStation, na PS5.
Gra pojawiła się już jakiś czas temu, bodajże w listopadzie albo w grudniu, więc już jakiś czas na rynku dostępna była.
Natomiast na starcie nie miała wszystkich funkcji dostępności, bo producent obiecał, że dostanie audio deskrypcję i czytnik ekranu, przynajmniej w niektórych językach.
No tutaj niestety, mimo to, że gra, chyba z tego co wiem, polski dubbing ma, bo generalnie większość tych gier na PS5 dubbingi dostaje, tych z większych, na pewno właśnie The Last of Us czy God of War dubbingi ma, więc tutaj chyba też.
No niestety, właśnie w przeciwieństwie do The Last of Us na przykład, ten czytnik ekranu i ta audiodeskrypcja w polskiej wersji językowej dostępnej nie są.
One są tylko dziś te najbardziej popularne języki dostępne, więc no tutaj znów
warto grać po prostu sobie po angielsku, ewentualnie gdzieś w jednym z tych innych języków, które ten czytnik ekranu wspiera.
To jest na przykład niemiecki, hiszpański, francuski i chyba tam coś jeszcze, o czym zapomniałem.
Ale gdzieś generalnie to są te najbardziej popularne europejskie języki.
No właśnie, mamy czytnik ekranu.
Czytnik ekranu, który trzeba sobie powiedzieć, został zrobiony bardzo sensownie.
Mamy audiodeskrypcję, która też została zrobiona bardzo fajnie.
Tutaj nawet spotkałem się z komentarzami, że to jest chyba najlepiej zrobiona audiodeskrypcja w grze wideo.
Taki właśnie zwłaszcza gdzieś bardziej interaktywnej.
No i chyba się muszę do tego przychylić, bo nawet w sytuacjach, kiedy dzieje się coś w momencie, kiedy my cały czas mamy kontrolę nad postacią.
Nie wiem, po prostu na Spidermana, któregoś leci autobus na przykład, czy jakieś inne sytuacje, czy taka fajna sytuacja, która pojawiła się w którejś jednej ze scenek, że sobie Spiderman siedzi w domu, coś przygotowuje, jakąś pracę, pisze sobie na laptopie, półkę na laptopa sobie zrobił właśnie ze swoich tych sieci, tak samo jak lodówkę sobie na ścianie powiesił właśnie.
I tutaj audiodeskrypcja nam takie rzeczy będzie opowiadać, w ogóle w grze mamy do czynienia z dwoma Spider-manami, już teraz nie pamiętam z jakiego powodu, bo to gdzieś było rozpoczęte w poprzedniej części, natomiast właśnie, mamy ten czynnik ekranu, który działa świetnie, który też nam będzie czytał treści, na przykład jakichś listów, czy innych rzeczy, które w grze się znajdziemy, mamy audiodeskrypcję, która działa świetnie, ale problemy niestety są związane
z nawigacją. Zanim jeszcze ta aktualizacja się pojawiła, no to w recenzjach np.
Brandon Cole zwrócił na to uwagę, że w grze taka prosta funkcja nawigacyjna była,
która po prostu kierowała naszą postać w kierunku miejsca następnego, które
powinno gdzieś nas interesować.
Natomiast to nie było na tyle dokładne w wielu sytuacjach, żeby nam pomóc.
O co mi chodzi? Przez to, że jesteśmy Spidermanem i musimy, powiedzmy, dotrzeć do
jakiegoś budynku, no to spokojnie, nawet jeśli nawigacja po prostu nas będzie
kierowała w odpowiedni moment, no przez to, że możemy się wspinać, nawet jeśli
napotkamy jakąś ścianę w budynku, no to dosłownie możemy po prostu się na ten
budynek wspiąć, przejść po dachu, przeskoczyć i idziemy dalej.
Co odejść zaczynają się, można powiedzieć dosłownie w sytuacji, kiedy, no właśnie
do jakiegoś budynku dochodzimy i musimy wejść do drzwi.
Już nawet były takie sytuacje, że okej, nawigacja nas skierowała w stronę drzwi,
Ale nie biorąc pod uwagę tego, że właśnie żeby wejść do tych drzwi są jakieś schody, po których najpierw musimy wejść i gdzieś tam delikatnie skręcić.
No a jeśli już wejdziemy do budynku, gdzie mamy korytarze i powiedzmy cel może być przed nami powiedzmy, no ale żeby do niego dotrzeć to musimy powiedzmy skręcić w prawo, wejść w jakieś pomieszczenie, później skręcić w drugą stronę i jakoś ten budynek obejść.
No, tego nawigacja w tej grze już pod uwagę nie brała w przeciwieństwie na przykład do The Last of Us, gdzie to zostało zrobione bardzo fajnie, więc nawet jak był jakiś skomplikowany budynek, no to z tym problemu nie mieliśmy.
No, poprawa w tej aktualizacji poniekąd jest, bo ta nawigacja po prostu często działa bardziej precyzyjnie.
Chociaż zdarzały mi się sytuacje, tu nawet oglądałem Brandona Calla, który akurat w tej grze nie konsultował, ale przez to, że ma dobry kontakt z firmą Sony, dostał tą grę do recenzji i oczywiście testował tą aktualizację.
Prowadził transmisję, która trwała ponad 5 godzin, w której starał się przejść jak na dalej w tym Spider-Manie.
Była taka sytuacja, że właśnie dojechał pod budynek, pod szkołę tutaj było konkretnie, no i chciał do tej szkoły wejść.
Nawigacja go podprowadziła najpierw pod schody, na które musiał wejść, no i później skierowała się w stronę drzwi.
Został dodany dźwięk nawigacyjny i to jest właściwie jakoś jedyny dodatkowy dźwięk, który jak na razie w tej grze dostaliśmy.
Natomiast on został zrobiony o tyle fajnie, że po pierwsze jest częścią środowiska i to jest takie bardzo specyficzne cykanie,
które, no właśnie przez to, że jest takie właśnie cyknięcie, no to jeśli w
danym pomieszczeniu jest jakiś pogłos, no to słyszymy jak ten pogłos się się odbija
od budynków, ścian, które są, bo konsola PS5 naprawdę ma fajnie rozwiązany
ten dźwięk 3D i te pogłosy, to jak ten dźwięk się odbija od ścian i od tego
typu rzeczy, no jest naprawdę zrobione fajnie, więc jeśli ktoś w miarę potrafi
interpretować taką echolokację, no to można całkiem sporo osiągnąć.
Ten dźwięk też będzie przyspieszał w miarę tego, jak my się będziemy do
tego miejsca, do którego musimy do czegoś zbliżać.
Więc to już nam dużo pomogło, no bo było słychać właśnie, czy musimy wejść wyżej,
niżej, czy gdzieś po którejś stronie jest ściana, która nas może przytrzymywać.
No ale problemy są.
No i tutaj wracałem do tego, o czym opowiadałem.
Dochodzi do tej szkoły, nawigacja go podprowadza pod dół schodów.
Zaczyna po tych schodach wchodzić, nawigacja go kieruje już w stronę drzwi.
No wszystko fajnie, tylko gdzieś szedł trochę za szybko, za mocno gałkę obrócił, no i z tych schodów spadł.
A nawigacja się o tym nie zorientowała i cały czas mu pokazywała na drzwi, ale no on tutaj musiał wrócić do tych schodów.
Dało się to rozwiązać przez o tyle, że zresetował po prostu grę do momentu wcześniej i do tego budynku się wejść udało.
Była podobna sytuacja, gdzie nawigacja mu pokazywała na szyb wentylacyjny, do którego akurat musiał się wspiąć, żeby gdzieś tam przejść.
Problem tutaj znów był taki, że ta nawigacja pokazywała mu już na sam szyb, ale nie miejsce, gdzie można było do niego wejść.
Natomiast właśnie przez to, że ten dźwięk się tak odbijał i było słychać, z której strony dochodził pogłos taki metaliczny,
No to udało się ostatecznie przejścia, zasugerowałem może spróbuj iść w stronę tego pogłosu, no i się udało, więc przejście da więcej.
Natomiast są sytuacje, kiedy niestety gdzieś ta nawigacja nadal zawodzi i są rzeczy, których po prostu sami nie przejdziemy.
Można jakieś 20% gry przejść samemu, to już dużo wielu osobom się udało.
Natomiast większość z osób na forum audio games na przykład czy sam Brandon utknęło na przykład w miejscu, gdzie częścią jakiejś zagadki, którą muszą rozwiązać jest odpowiednie połączenie przewodów, żeby jakiś generator ruchomić i te przewody są jakoś pokolorowane, natomiast na to nie ma dźwięków, a nawigacja nie prowadzi nas w odpowiednie miejsce, w odpowiedniej kolejności, więc po prostu niestety, no mimo to, że poprawa jest duża i myślę, że osoby słabo widzące
raczej sobie z tą grą poradzą i będą miały dużo frajdy.
Osoby niewidome też nawet całkiem sporo są w stanie je zrobić.
No to niestety jeśli nie mamcie gdzieś koło siebie pomocy
osoby widzącej, która no nie będzie miała nic przeciwko,
żeby czasami wam w jakiejś grze pomóc,
no to myślę, że niestety to jeszcze nie jest gra dla nas.
No to też jeszcze kwestia bariery językowej.
Może jeszcze będą jakieś aktualizacje, no mamy na to nadzieję.
Trudno powiedzieć, natomiast na ten moment sytuacja wygląda tak, że owszem, jest postęp, ja spodziewałem się, że ten czerwień ekranu nam przyniesie mniej.
Ta audiodeskrypcja jest naprawdę bardzo imponująca, natomiast niestety powiedzieć, że tę grę w stu procentach da się przejść po niewidomemu, no niestety na razie nie mogę.
No to jest Spider-Man, ale to jest jeszcze nie koniec, bo mamy jeszcze kilka aktualizacji.
Zaczniemy od, już takie bardziej pozytywne wieści myślę, zaczniemy od gry fanowskiej,
stworzonej przez społeczność, osadzonej w uniwersum Pokemonów.
Gra Pokemon Reborn, która rozwija się gdzieś już od kilku lat, gra powstaje na własnym silniku,
która opowiada swoją własną fabułę, natomiast właśnie ona jest osadzana w uniwersum Pokemonów, która staje się dla nas dostępna.
Przez to, że to jest własnościowy silnik, a nie gra działająca na starej konsoli, która ma jakieś zasoby ograniczone,
no to tutaj samą dostępność, ona kiedyś będzie udostępniona publicznie, natomiast na ten moment, kiedy ona jest jeszcze gdzieś dokończona,
Jest dostępna tylko w momencie, kiedy ktoś projekt na portalu Patreon
wesprze. Jeśli to zrobimy, to dostajemy link do serwera na Discordzie
i tam się to da ściągnąć.
Natomiast też już ludzie to pokazywali na transmisjach, na przykład na
Twitchu, jedna osoba to pokazywała.
No i co mogę powiedzieć?
No to jest zrobione bardzo fajnie, no bo wiadomo, mamy wszystko czytane.
Chociaż tam niektóre elementy, kiedy na przykład nasze Pokemony zdobywają
poziomy, tam nie wszystko jest czytane, ale mówię, to jest cały czas w wersji
beta powiedzmy, czy nawet alfa, więc to jest cały czas jeszcze dokończone.
Natomiast mamy dźwięki nawigacyjne, trochę tak jak w Mana Monach,
jeśli ktoś grał, wiemy w której stronie są ściany.
Wszystkie postacie, jakieś przedmioty, z którymi możemy wejść w interakcję wydają dźwięki,
więc spokojnie możemy sobie, no nie musimy tak jak to jest w przypadku tego moda
Pokemon Access, który działa w emulatorze, że sobie wybieramy z listy
obiektu, do którego chcemy dotrzeć, jakieś drzwi, naciskamy skrót i on mówi
czyli dwa kroki w przód, później trzy kroki w prawo i tak dalej i tak dalej.
Tutaj po prostu słuchając dźwięków słyszymy gdzie są ściany, gdzie są jakieś przedmioty,
które nas interesują i po prostu sobie postacią chodzimy i możemy spokojnie tę grę
przechodzić i cieszyć się tą fabułą.
Na pewno kiedy ta wersja pokaże się już publicznie, bo wiem, że taki plan jest na
razie, po prostu jest ograniczone w czasie fazy testów,
no to na pewno dam Wam znać, bo projekt się zapowiada bardzo ciekawie.
No to teraz jeszcze na koniec kilka aktualizacji.
Po pierwsze, Hearthstone.
Hearthstone, jakby wspominałem, zbliża się wielkimi krokami rocznica i to okrągła,
bo Hearthstone, słuchajcie, jest na rynku już równe 10 lat, więc można powiedzieć
wszystkiego najlepszego poniekąd.
Ta rocznica była chyba 11 marca, więc ona już minęła, natomiast z tą rocznicą
przyszła kolejna dość duża aktualizacja, wersja 29.0, w której trochę wydarzeń się pojawiło,
natomiast ta aktualizacja też pomału nas przygotowuje do tej kolejnej paczki, o której już
wspominaliśmy, no i rotacji roku, no bo tak jak to jest zawsze właśnie w Hearthstone, co roku zmieniają
nam się tzw. rdzenne karty, które są dostępne dla wszystkich i karty wokół których ten tryb
standardowy się kręci.
W zeszłym roku mieliśmy, to był rok Hydry, a od 19 marca, kiedy to nowe
rozszerzenie już zostanie oficjalnie udostępnione, rozpoczniemy rok Pegaza
i z tym rokiem kilka paczek wyjdzie z rotacji.
Wszystkie, wszystkie karty z rozszerzenia Zatopionego Miasta kończąc na
Laku Artasa po prostu wyjdą z rotacji i dostępne będą tylko karty, które pojawiły się później, no plus wszystkie nowe, które zaczęły się pojawiać, więc no tutaj warto jeśli gracie Hearthstone’a zainteresować się tym nowym zestawem, który się pojawi cały czas do 19 marca można sobie go w przedsprzedaży kupić, można już sobie też poczytać jakie karty zostaną dodane, są też jakieś minimalne zmiany w ustawkach,
więc będzie link w komentarzu, możecie sobie po polsku przeczytać wszystko, co się w tej najnowszej wersji zmieniło.
Jeśli chodzi jeszcze o modę Hearthstone Access, to on też już został zaktualizowany bardzo szybko, także spokojnie.
On cały czas będzie działał i mamy inną, jeszcze w samym modzie fajną nowość, która doszła,
a mianowicie, kiedy szukamy przeciwnika, no w dowolnym trybie, czy to są ustawki, czy to jest właśnie tradycyjny Hearthstone,
Najgorzej nie wyświetla nam się czas szacowany, po którym przeciwnik jaki zostanie znaleziony oraz czas ile już w tej kolejce siedzimy.
Tego się przeczytać jak na razie nie dało, no OCRem się dało w sumie, ale jak ktoś nie chciał, bo OCR mu nie działał, no to teraz mod sam też taką funkcję oferuje.
Wystarczy nacisnąć spację i wtedy te informacje, jeśli one są akurat wyświetlone, no to dostaniemy po prostu, przeczytane zostaną dla nas.
I na koniec Forza, Forza też się aktualizuje, pojawiła się aktualizacja szósta, aktualizacja sześć zero, w której to wiadomo jak zwykle akurat tym razem nowych tras na razie nie mamy, mamy dużo poprawek błędów za to, mamy kilka nowych samochodów, rozpocznie się nowa seria turniejów, tak jak poprzednio mieliśmy motyw niemiecki, bo mieliśmy turnieje związane z niemieckimi producentami,
zaczynając od od BMW przez Audi, Mercedesa i kończąc na Porsche, no to teraz
będziemy mieli turnieje skupiające się na stopniowo coraz szybszych, coraz
mocniejszych silnikach. Najpierw czterocylindrowe, później sześć, później ośmio i na
końcu takie bardzo duże już dziesięciocylindrowe silniki.
To będzie taki cykl turnieji.
Kolejną dużą zmianą jest to, że zmieni się sposób w jaki będziemy mogli sobie nasze
samochody ulepszać, bo dotychczas to wyglądało tak, że kiedy sobie jakimś
samochodem jeździliśmy, no to on po prostu zdobywał poziomy doświadczenia.
Tak jak w takich grach RPG, po prostu jeśli dobrze jeździliśmy tym samochodem,
no im dłużej to po prostu zdobywaliśmy kolejne poziomy.
Za te poziomy docowaliśmy tak zwane car points, po prostu punkty, które później
w menu ulepszenia mogliśmy zamienić na różne części.
W ogóle te same części z poziomami się zdobywały, więc tak powiedzmy na poziomie
drugim do tego mogliśmy sobie zmienić błotniki np. na poziomie trzecim już
mogliśmy zmienić materiał gumy z jakich nasze koła są na poziomie czwartym już
mieliśmy więcej modyfikacji silnika i tak dalej i tak dalej tam tych poziomów
było pięćdziesiąt. Nie wszystkim się to podobało bo takim jednym samochodem
to trzeba było nawet jeździć kilka godzin żeby wszystko to odblokować.
No więc teraz modyfikacje mamy odblokowane wszystkie na start i możemy sobie
cały czas jeździć, żeby te poziomy zdobywać i tak sobie ten samochód ulepszać, albo możemy po prostu zapłacić.
Płacimy, spokojnie nie płacimy prawdziwymi pieniądzami, a po prostu kredytami, które zdobywamy w grze,
na przykład za wygrywanie wyścigów, no i właśnie jeśli nie chcemy gdzieś nabijać poziomów jakimś samochodem,
chcemy szybko sobie go maksymalnie ulepszyć, albo właśnie kupić jakąś jedną część konkretną, która nas interesuje,
No to po prostu na ekranie ulepszenia będzie opcja, żeby sobie punkty, które potrzebujemy właśnie, żeby samochód ulepszyć, wykupić kredytami.
To nie jest jakieś bardzo drogie, więc na pewno to jest duży skrót, natomiast wiadomo, właśnie też kredytami kupujemy nowe samochody, więc musimy sami zdecydować, czy chcemy sobie tak to przyspieszyć, zapłacić, czy jednak gdzieś te poziomy nabijać, a może zrobić pół na pół.
Wiele osób o taką możliwość prosiło i tutaj producent postanowił przychylić się do tych próśb.
Poza tym mamy kilka nowych ścieżek muzyki w anime głównym, więc po prostu to zostało urozmaicone.
Mamy też dosyć dużo poprawek błędów, łącznie z udźwiękowieniem i tutaj taką najważniejszą poprawką
jest narracja na ekranie malowania samochodu, no bo możemy sobie samochody malować, no samo malowanie wiadomo dostępne
narracji będzie przynajmniej takie precyzyjne, gdzie sobie jeździmy kursorem po samochodzie i sobie odpowiednie kolory malujemy,
chociaż samo menu kolorów jest czytane, ale dostępne jest na przykład malowanie całych części, możemy sobie na przykład z menu
wybrać, że chcemy pomalować powiedzmy maskę tylko albo sam bagażnik albo sam
bok samochodu i wybrać kolor.
Możemy też sobie załadować designy stworzone przez społeczność, a generalnie
społeczność do wielu samochodów własne designy tworzy.
One mają gdzieś jakieś nazwy, które często nam gdzieś powiedzą, co sobie
właśnie akurat ładujemy.
No i to teraz jest całkiem fajnie dostępne.
Więc jeśli ktoś chce się bawić takimi rzeczami kosmetycznymi, tutaj
najbardziej stricte, no to teraz to też jest dostępne.
No i generalnie w tej aktualizacji jest też po prostu dużo takich
mniejszych poprawek błędu, ale właśnie najbardziej istotne jest to, że
no kolejne gdzieś wyścigi w trybie kariery są do nas dostępne, no i
ta możliwość kupowania ulepszeń za kredyty.
No jak widać cały czas dużo się dzieje w świecie gier, no i pewnie
pewnie będzie się działo jeszcze więcej w przyszłych tygodniach, także
że jeśli jakieś jeszcze informacje się pojawią, no to na pewno będziemy Was na bieżąco o tym informować.
Sporo informacji w świecie gier, efektem tego było to, że ktoś, kto jest z nami po drugiej stronie linii telefonicznej musiał się naczekać,
ale już odbieramy telefon. Dobry wieczór, kogo witamy?
Witamy Marcina Sierżęgę, dobry wieczór, witam Michalę, witam Piotra, witam Tomka, Paweł Mateusz.
Cześć Marcinie, jak rozumiem to Ty nagrałeś nam te wiadomości długie, tak? Na Whatsappie.
Tak, ale no ponieważ one są przedługie, więc wolę jednak w tej kwestii wypowiedzieć się osobiście tutaj na żywo.
Jasne. To słuchamy.
Przede wszystkim chciałem sobie tutaj przeprosić za pewną rzecz. Mogę się trochę stresować w trakcie wypowiedzi.
Ponieważ, no jak bym, Michale, ty już wiesz, oprócz mnie z roku mam jeszcze zespół Tureta, to jest zespół Tików i zespół takich innych z zaburzeń w sfery neurologicznej, psychologicznej.
Mówiliście państwo parę miesięcy temu na temat usługi
opartej na sztucznej inteligencji, w której
osobiście korzystam, no i taka historia, tego mojego
korzystającego z tego bywała taka, że naprowadziłem się na
początek wakacji, w tamtym roku, w tym roku, w tym roku
lub w połowie wakacji, nie pamiętam dokładnie,
zalogowałem się na Discorda, no i testowałem.
Po wielu metodach prób i błędów udało mi się
przetestować tą Sumo, zarówno jak i w czasie
panowania na Discordzie i co jeszcze panuje, jak i już na
oficjalnej stronie. Mówicie państwo, że w tej wersji
drugiej, gdzie Tomek Bielecki prezentował możliwości tej usługi,
była taka ona przepastna. Ja też mogę stwierdzić osobiście, że to była taka przepaść,
bo można było powiedzieć, że do muzyki mainstreamowej, jak najbardziej,
ona się nadawała do takiego tworzenia, oczywiście, no takiego szciszka inteligentnego,
Ale tutaj Piotrze chciałem tobie przede wszystkim podziękować
za pewną kwestię, którą wspomniałeś w tej audycji odmawiającą o strunie,
ale zaraz do tego przejdę.
Ta piekacja jednak do wielu gatunków muzyki się nie sprawdzała do tej pory.
Zakupiłem sobie w grudniu przed świętami pakiet premium,
ponieważ było mi akurat stać, akurat tylko na jeden miesiąc,
musiałem anulować subskrypcję.
Niestety nie wykorzystałem prawie połowy kredytów, ponieważ trochę się rozczarowałem w tym, co firma Suno zaoferowała.
Do czasu, do pewnego momentu i tu mam dla Państwa bardzo dobrą informację.
Właściwie dwie informacje, dobrą i jedną dobrą, drugą złą.
Pierwsza, a może zacznę od złej informacji, jest taka, że żeby wykorzystać czegoś, o czym ja powiem,
niestety trzeba mieć wykupioną subskrypcję Prol Premier.
Druga sprawa jest taka, że nadeszła chwila, by suno zrobił obrót praktycznie o 180 stopni.
Pojawiła się wersja trzecia suno, chociażby w wersji alfa,
bo ona tu się pojawiła w wersji alfa.
A skoro w wersji alfa, to mogą być jakieś błędy, jakieś niejasności.
No i dziękuję Piotrze, że wspomniałem się o hardstyle’u
i o pokrętnych gatunkach muzyki, ponieważ ja od kilkunastu lat,
właściwie od dwunastu, trzynastu lat, mogę powiedzieć,
że zacząłem się obracać w takich klimatach,
a wszystko przez parę tu kwestii
związanych z muzyką i z moim wczesnym dzieciństwem,
w wieku tam bodajże 3-4-letniego
chłopczyka, w czasie kiedy Wiela Niemiecka
emitowała imprezy z cyklu K-flotation
i nagrania zespołu Brooklyn Bounce, nie tylko.
No i można powiedzieć, że Piotrze,
Twój znajomy będzie zadowolony, bo sono.ai już doprowadził do tego,
że nie tylko można tworzyć takie praktycznie gatunki,
które są może nie do końca doceniane na świecie,
ale się ciągają zainteresowaniem większym,
typu właśnie hardcore, gabber, hardstyle, drum’n’bass, dubstep i tym podobne,
trapy, nietrapy, ale też jakieś utwory z gatunków tradycyjnych.
Tomku, wspominałeś o bosanowie, niebosanowie i tak dalej.
Ale chociaż ja takie muzyki nie słucham,
jeżeli chodzi o tradycyjną muzykę, no czasem słucham, czasem nie.
Ale testowałem na japońskich ojmianach muzyki,
chociaż wypisząc polskie teksty.
I muszę powiedzieć, że chociaż jeszcze Suno nie jest do końca w stanie
kontrolować parametrów wokali, jakby stylu śpiewania
podawanego przez użytkownika, czy ma on śpiewać prostym tonem,
czy ma wibrować, czy jak ma śpiewać, czy z jakimiś inną techniką wokalną,
innym ozdobnikiem. No ale można już powoli kontrolować gatunki.
Właśnie tak jak pisząc nazwy gatunku muzyki, jakie instrumenty,
czy ma być to śpiew męski czy żeński, z których lat ma być to brzmienie.
Także muszę powiedzieć, że Firma Suno powoli słucha użytkowników, właśnie panowie z tej firmy.
Myślę, że oni przesłuchali parę utworów z rodziny tych tradycyjnych muzyk, jak i tych nowoczesnych, nie mainstreamowych gatunków muzyki elektronicznej,
chociażby bazując na hardensie właśnie.
Ja powiem więcej Marcinie, wejdę Ci w słowo, bo a propos wykorzystania,
spokojnie, a propos wykorzystania suno, to ja akurat z kolei śledzę
inną trochę gałąź tego przemysłu muzycznego, mianowicie jestem na różnych grupach
dla radiowców na Facebooku, tam przede wszystkim mamy ludzi ze Stanów Zjednoczonych
I ostatnimi czasy to nawet niektórzy radiowcy postanowili wykorzystać Suno do tworzenia dżingli dla stacji radiowych.
Dżingli śpiewanych.
I teraz tak, oczywiście nie da się, jak na razie, poprosić Suno tak do końca o stworzenie dżingla,
bo on zawsze tworzy ten utwór, powiedzmy dwuminutowy, czy trzyminutowy.
Teraz nie pamiętam jak to tam wygląda.
Do dwóch.
Największy limit.
Jasne. Natomiast wzięli się na sposób i po prostu każą mu stworzyć jakąś tam piosenkę w takim i takim tempie, z taką i taką energią, z takimi a nie innymi słowami i co niektórzy po prostu odpowiednio edytując te utwory, które są wygenerowane przez Suno, tworzą sobie takie króciutkie fragmenty,
które rzeczywiście fajnie czasem pasują jako dżingle.
Ja słyszałem kilka…
Rozumiem, że oni używają edytorów audio.
Tak, tak, tak. Potem po prostu już sobie, potem pobierają sobie to,
no bo co ciekawe, właśnie suno
zezwala na wykorzystanie tego w sposób komercyjny,
jeżeli wykupimy…
Tak, dlatego że on, bo generuje ogólnie oryginalne piosenki
i on nie zasłania się prawami autorskimi.
Tak, i jeżeli wykupimy sobie odpowiedni pakiet, i tu jest jedno takie zastrzeżenie, bo to też kilka razy widziałem taką informację,
że wykorzystać komercyjnie Suno możemy tylko to, co stworzyliśmy w ramach takiego komercyjnego pakietu.
Jeżeli na przykład zdarzy się tak, że stworzymy jakiś super utwór, który nam się bardzo podoba, w ramach tego pakietu darmowego,
I potem sobie wykupimy pakiet płatny, to niestety, ale to już przepadło.
Tego komercyjnie tak czy inaczej wykorzystać nie możemy.
Natomiast właśnie co niektórzy pomysłowi właśnie z amerykańskich przede wszystkim stacji radiowych
wykorzystują też suno do tworzenia jakichś takich śpiewanych dżingielków.
No jest to jakiś pomysł, jest jakiś sposób.
Aczkolwiek mnie to zastanawia z jednego powodu, bo o ile mi wiadomo, bo do tej pory było tak i to bardzo często chyba było tak, że każda stacja, a przynajmniej u nas, ma taką swoją melodyjkę na dżingiel, na te dżingle i te dżingle muszą się wokół tej melodyjki obracać.
Wiesz co, to jest tak, jak ktoś ma pieniądze, to tak jest, a jeżeli komuś po prostu zależy na tym, żeby było jakkolwiek, to niekoniecznie.
To suno obleci.
To suno obleci, dokładnie, to wiadomo, że jeżeli stacja radiowa ma budżet…
Okej, bo myślałem, że po prostu chodzi się o ludzi z jakiejś takiej stacji, które…
No nie, no nie, to jeszcze nie jest ten moment, aczkolwiek podejrzewam.
Ja myślę, że za wcześnie jeszcze jest na to, żeby w ogóle tą sztuczną inteligencję wykorzystać w mainstreamie.
To znaczy, wiecie, ja myślę, że za jakiś czas, jeżeli będzie taka możliwość, żeby na przykład Suno podać jakąś melodię w jakimś zapisie
i na zasadzie, a zrób mi wokół tego ileś aranżacji plus…
po prostu, jeżeli się zgodzi na to, żeby można zrobić audio, to audio tak zwane, to byłby dobry pomysł.
Dokładnie, to jest jakaś tam przyszłość i myślę, że też będą tego typu możliwości.
Wersji partii piątej myślę, że tak.
Tak.
No i w związku z tym…
To znaczy, moment, bo ja się zastanawiam, czy to na pewno leży problem właśnie w tym, bo pamiętajcie, że można w Suno zrobić kontynuację tego, co oni stworzyli.
Czyli jeżeli stworzysz piosenkę, ona się urwie, to można ją kontynuować i można wrócić do historii tego, co się wcześniej wygenerowało i kontynuować to dalej.
I ja się zastanawiam, czy tam nie ma innego problemu, że to już można było, tak podejrzewam, ale nie wiem, to jest takie tylko moje, mój jakiś domysł, zrobić tego już dawno, tylko oni się prawdopodobnie czują z takim niebezpieczeństwem,
że ktoś da oryginalny jakiś przebój istniejący, wpisze sobie jakiś tekst inny i proszę bardzo mamy gwiazdę aktualną, która śpiewa o czymś tam zupełnie innym, co nie do końca, z czym się na przykład nie do końca zgadza i kto ma problem? Problem ma Suno.
Też możliwe.
Jakby to wypłynęło.
Potom pracuje na bardzo cienkiej linii tych praw autorskich. No i teraz podejrzewam, nie jestem w żaden sposób pewien, ale wydaje mi się, że coś może być na rzeczy i być może już by się to dało. I to nie jest kwestia możliwości technicznych, tylko raczej możliwości prawnych.
A czy chodzi o to, żeby dać plik audio stworzony, dajmy na to, na jakimś DAW-ie?
Że na przykład, bo ja mam taką wizję od jakiegoś czasu, żeby stworzyć własną, dajmy na to, taki przykład podam, stworzyć własną wersję opraw muzycznych z Milionerów,
ale w takiej bardzo, bardzo mocno orkiestrowej wersji z chórami, z przedęciami,
z takimi bransami mocnymi, przedętymi,
żeby to było bardziej emocjonalnie dobrane.
Bardzo bym myślał, gdyby można było chociażby na abletonie
czy na jakimś innym dawie zagrać,
czy na jakimś plastikowych instrumentach,
takich wziących nieprofesjonalnie.
A w takich, w przyszłości inteligencji,
przy tworzeniu gatunku, wpisać sobie,
że chcemy takie i takie brzmienia,
takie i takie chóry, takie i takie te,
No to myślę, że nie byłoby to problem. Natomiast gdyby się dawało
użytkownicy Szlina Leniwego i by rzucali istniejące utwory MP3
i tak dalej, to myśli z już istniejących gwiazd, które śpiewają
sobie o tym, o tym. I no to mi się wydaje, że rozwiązanie by było takie,
że po prostu blokował generację, po prostu wyskakiwałby komunikat, że suno nie może tego wygenerować.
Marcinie, tylko problem jest w tym, że melodia, sama melodia jako taka też jest pewnego rodzaju dziełem,
które jest chronione przez prawo autorskie, więc tak na przykład, jeżeli ty byś chciał nawet,
Tu rzeczywiście Tomek zwrócił uwagę na bardzo ważną rzecz, bo tak naprawdę to każdy element tego dzieła muzycznego, zarówno tekst, melodia, produkcja, wykonanie to jest jakiś element, do którego ktoś ma prawo, bo ktoś to skomponował, ktoś to napisał, wykonał i stworzył.
I teraz po prostu, i tu, i tu po prostu, nawet jeżeli ty byś chciał stworzyć jakąś tam aranżację milionerów,
no to tak naprawdę tej muzyki z milionerów, to chcąc robić to zgodnie z prawem,
to musiałbyś mieć zgodę od kogoś, tak, tak, dokładnie.
Kto stworzył ewentualnie lub od samego producenta TVN-u, myślę, wydaje.
Albo nawet i dalej, bo pamiętaj, że milionerzy to jest, to jest, no, dokładnie.
Ja pamiętam jak Chris Tarrant prowadził i oglądałem to osobiście na YouTubie, nawet próbowałem przykłamać nawet jedno nagranie z milionerów przez Eleven Lapsa stosując tutaj dubbing.
Brzmiał to autentycznie, tylko że ta rozmowa trochę brzmiała tej zawodniczki, która wygrała milion jako pierwsza w Wielkiej Brytanii po polsku, a między Chrisem Tarrantem a tą zawodniczką.
Tak by to była rozmowa mniej więcej o jakimś zakładzie psychiatrycznym.
I kobieta, która wypowiadała się, że coś widziała, nie widziała,
mówiła w liczbie pojedynczej w rodzaju męskim w tym tłumaczeniu.
I to było takie trochę…
No bo w angielskim przecież nie ma określenia płci.
Często jej nie ma.
Więc to trzeba się domyślać z kontekstu i to się nie domyśla z kontekstu, to jest jakby rzecz pierwsza, teraz w tych dubbingach podobno można już edytować te wszystkie rzeczy, więc można by sobie tutaj to ręcznie sprawdzić.
A propos dżingli, które Suno może stworzyć, myślę, że ja też próbowałem coś takiego wpisać właśnie w pole edycyjne, że to ma być dżingiel do jakiegoś teleturnieju,
Zawiązany na tych samplach, ale coś się właśnie nie zgadzało, ponieważ Suno generuje, tak jak powiedziałeś Michale, maksymalnie do dwóch minut clip i to już nie jest dżingiel, tylko trzeba by ewentualnie to, co zrobił Suno, podać właśnie edycji.
Tak i właśnie w ten sposób ci radiowcy tworzą sobie te dżingle, po prostu wybierają jakiś fragment, który np. ze środka się udał, bo tu jakoś bardzo fajnie to zostało zaśpiewane, z jakiegoś np. innego nagrania końcówkę, no i mamy coś fajnego.
I jeszcze to, że właśnie jest taka sprawa, a propos tempa, a propos klucza i a propos określenia takich rzeczy.
Więcej mnie zainteresuje, odkąd nabrała takiego tempa.
Jest ona dla mnie nadzieją, jako człowieka spędzającego czas w takiej muzyce,
troszkę nie bardzo ogarniającego sprawy, dawów i tak dalej,
jako, no właśnie z tym schorzeniem i tak dalej.
Że to byłoby dla mnie ułatwienie sytuacji.
Chociażby nie traktować się go jako biznes i tak dalej.
No boi się faktu, co by było, gdyby ludzie zaczęli wdawać
albumy właśnie tworów na rzecz inteligencji.
I jeszcze właśnie, tu powiem jeszcze pytanie, bo nieraz
określenie tempa i klucza,
Czy to ma być w C, czy D, czy ma być to w moju, czy w dużej, czasem nie pomaga przy jakby tutaj wpisywaniu przygatunku muzyki, przy pole liści przygatunku muzyki i tak dalej.
Czasem nie pomaga, no. Wychodzi jeden klip inny, a drugi klip wychodzi taki, w którym się wszystko zgadza.
No to jest podejrzewam po prostu kwestia jakiejś tam przyszłości.
Marcinie, moglibyśmy rozmawiać jeszcze naprawdę długo, podejrzewam na ten temat.
No wiem, macie Państwo 200 kolejnych pacjentów, 200 kolejnych uczestników.
No może nie aż tylu, ale jeszcze mamy trochę tematów do poruszenia na pewno w dzisiejszym programie.
Ja dziękuję bardzo za rozmowę i uszanuję oczywiście to właśnie, że mają Państwo jeszcze tyle czasu do omówienia,
bo ta audycja dzisiaj rzeczywiście jest przedługa
i siedziałem tutaj parę godzin, żeby tutaj pogadać z Państwem.
Dziękuję za rozmowę i mi się wydaje, że będzie jeszcze
20 milionów kolejnych razy do poświęcenia tematu sztucznej inteligencji,
bo to jest dla mnie temat rzeka.
Z pewnością niejednokrotnie jeszcze do tego wrócimy.
Dzięki za telefon, dobrej nocy.
Dobra noc.
No dobrze, to w takim razie przechodzimy
jak mi się wydaje, już w takim razie do naszych technikaliów bardziej.
Tylko gdzieś mi uciekły notatki, ale już mam.
I pierwszą aktualizacją jest nowość, która ma się pojawić w Windows 11,
czyli aktualizacja systemu, która nie ma nie wymagać restartu komputera.
W końcu.
Tak, to nie jest też tak do końca, że już w ogóle w życiu tego okienka z aktualizacjami nie zobaczymy, ale będzie się to działo bardzo rzadko.
To znaczy najpierw musi się to w ogóle pojawić, bo na razie mamy tylko przecieki, że w wersji 24h2 później w tym roku jakoś się to pojawi.
I to jest system, który nazywa się hotpatching i hotpatching ponoć już jest używany na Xboxach i na niektórych wersjach Windows Server.
No i chodzi o to, że po prostu w wewnętrznej pamięci danego procesu jest przeładowywany kod przez system i jakby w tle robi się to, że zaczyna działać nowy system, znaczy ta aktualizacja po nowemu.
No i wygląda na to, że tak będzie się działo z tymi regularnymi aktualizacjami, zwłaszcza takimi krytycznymi bezpieczeństwa poprawkami w ciągu roku.
Natomiast będą cztery takie okresy w roku, cztery miesiące, kiedy zostaną wypuszczone te większe aktualizacje, które już będą wymagały takiego prawidłowego restartu i uruchomienia systemu ponownie.
Więc tak to ma wyglądać. No i jeszcze druga nowość, która już dla insajderów się powoli pojawia, no czyli będziemy mogli z naszego smartfona zrobić kamerkę do komputera.
I tutaj jest to wszystko za sprawą aplikacji Twój Telefon.
Nie, łączę z telefonem już teraz.
No i wymagane na razie będzie to działać na smartfonach z Androidem od 9 w górę.
Będzie możliwość przełączania między przednią a tylnią kamerą,
wstrzymywania streamu wideo oraz używania różnych efektów kamery, który nasz telefon oferuje.
No to takie nowości dla Windowsa 11.
Ciekawe swoją drogą, czy mikrofon też da się użyć?
To jest ciekawe i mogliby zrobić rzeczywiście też sam mikrofon.
No właśnie.
To byłoby coś, rzeczywiście.
No, to się zgadza, bo kamerka to kamerka, ale no często te smartfony neutralne mają fajne mikrofony.
Inna sprawa, że Apple udowodniło, że to się da zrobić, bo na infonie też.
Mówiłeś o kamerze, okazało się, że mikrofon też działa, bo wiem, że to się przydaje czasami.
Może teraz też to tak będzie działało w Windowsie.
No byłoby fajnie.
Byłoby fajnie.
Tymczasem mamy parę wiadomości od Sylwestra, więc posłuchajmy, co nasz słuchacz ma nam do powiedzenia.
Czy poruszaliście temat o grach? Bo ja mam pytanie, czy historyczne gry są na podstawie literatury?
czyli literatury historycznej, przygodowej, obyczajowej, a najbardziej takiej nawet na podstawie filmów bardziej wiązane z książkami historycznymi, czy są takie gry.
A nawet gry takie, na przykład filmów popularnych, na przykład, no, niekoniecznie seriali, bo ja nie lubię seriali.
W ogóle ja filmów tutaj nie oglądam, ale są takie po prostu literatury, po prostu, powszechnej.
Niekonieczny z lektur, a nawet takich poważniejszych historii, historii starożytnej, historii najnowszej, historii średniowiecza na przykład na podstawie, bo są takie chyba gry.
Ja w sprawie tego Whatsappa, ja włączyłem taką funkcję co tydzień, zobaczymy czy to będzie działać.
No to Piotrze, czy coś Sylwestrowi byś polecił z takich gier?
Takich gier typowo historycznych chyba jakoś dużo nie ma, jedyne co mi przychodzi do głowy no to z takich najnowszych rzeczy no to ewentualnie gdzieś 1428, które gdzieś było posadzone gdzieś w klimatach jakaś nieśredniowiecznych, natomiast tam było też dużo elementów fantastycznych.
to też trzeba sobie powiedzieć, no to już w ogóle klasyka.
Mieliśmy oczywiście grę Time Adventures od Code Factory, które w ogóle
w tej grze to w ogóle był motyw podróży w czasie i mieliśmy do czynienia z
mitologią grecką.
Natomiast to są wszystko gry w języku angielskim.
To trzeba podkreślić.
Niestety nie wiadomo mi nic o takich grach, które są dostępne po
po polsku. Problem też jest taki, że przynajmniej jeśli chodzi o historię, to może nie.
Ale jeśli chodzi o gry na podstawie książek, no to wiadomo, tutaj też mamy kwestie praw
autorskich, tak, więc generalnie jeśli ktoś jakieś gry tworzy, no gry na podstawie
książek to raczej tworzą duże firmy, no tak na przykład jak CD Projekt dla serii
Wiedźmina. Niestety często z takimi grami jest taki problem, że one nas przynajmniej na
w każdym razie dostępne nie są. Może to się pomału zacznie zmieniać,
no bo przecież, no już na przykład właśnie
Spiderman już jakieś funkcje dostępności dostaje, no a
mieści zawodowcy to raczej starają się po prostu takich tematów
unikać, no bo zawsze gdzieś jest jakiś ryzyko, zwłaszcza jeśli to ma być
projekt komercyjny, że no może napotkać problemy
związane z prawami autorskimi.
A czy my kiedyś nie mówiliśmy o dostępności Assassin’s Creed?
Nie, to chyba tam…
Dostępności tam tak naprawdę nie było.
Bo coś tam było w najnowszej części udźwiękowione, ale to tylko menu chyba.
Ale jest na przykład Rosemary’s Fate.
No tak.
Które jest oparte o jakby historia autentyczna z drugiej wojny światowej.
A Hades?
No właśnie, też mamy…
No tutaj znów mamy klimaty mitologii greckiej.
No w sumie fajna gra.
Wiadomo, tam tylko trzeba się chwilami posilić OCR-em.
Więc to też…
No trzeba się z tym liczyć.
Można sobie… Są mody do tej gry.
Mode, które mimo wszystko od zera wymagają, ale to jest też, no to jest bardziej taka gra zręcznościowa, ale no właśnie, macie rację, jeszcze gdzieś Hades.
Ja bym szukał bardziej w tych grach takich przeglądarkowych, tekstowych, czy czegoś nie ma opartego w jakichś historycznych realiach.
Nie wiem, czy któryś z tych symulatorów cywilizacji, jakieś BC4000 czy coś.
No właśnie.
Ewentualnie może w jakichś modach, jeżeli jeszcze są, a pewnie coś jest.
Tak, no BC4000 to jest jeszcze jedna kwestia, niestety to jest gra tylko na iPhone’ie, więc no tu może być dla Ciebie problem.
No tak.
Też nie zoprecyzowałeś na jakie platformy szukasz, no to są generalnie Rosemary’s Fate, czy Hades, czy Taiwan Adventures, to są znów wszystko gry na komputery, konkretnie z Windowsem, no Hades też jest na konsolach i w sumie na iPhone’ach też się pojawił jako gra, która jest oferowana z częścią abonamentu na Netflixa swoją drogą, bo teraz Netflix też w gry zaczął wchodzić, natomiast z Hadesa lepiej grać na komputerze o tyle, że mamy te modeli,
dostępnościowe, które nam, no nie wszystko udźwiękawiają, ale parę rzeczy ułatwiają, więc
więc tak, no ma, właśnie a propos modów, no przecież jest Crusaders Kings 3, którym
Patryk się zachwyca i tam mamy nawet mody, które pozwalają grać nam
polskimi dynastiami.
Znów gra na komputery, ale jeśli takie rzeczy Cię interesują, to w sumie to może być,
to może być ciekawą opcją.
No i zostały nam jeszcze dwie, dwa newsy zdaje się, tak, najpierw od Michała News na temat Markera, to jest, nie, aplikacja, strona, w każdym razie jest to wieloplatformowy edytor Markdown.
Tak, i to będzie krótka informacja na temat kolejnego edytora Markdown, z którego jesteśmy w stanie skorzystać.
To jest aplikacja, z tego co widzę, stworzona w elektronie.
Do pobrania z GitHuba link będziecie mieć w komentarzach pod audycją.
Aplikacja niewielkich rozmiarów, natomiast dosyć ciekawie wygląda kwestia zarządzania tymi naszymi notatkami,
bo nasze notatki tworzymy w ramach projektów i te projekty to są po prostu takie foldery.
Dla każdego projektu przyporządkowujemy folder na dysku twardym, w którym tworzymy sobie w obrębie tego folderu jakieś notatki.
Te wszystkie notatki są w Markdownie, natomiast jeżeli chodzi o ich edycję, no to całkiem fajnie to się sprawdza,
przynajmniej w takiej bardzo podstawowej składni, jeżeli o tego Markdowna chodzi, bo piszemy sobie normalnie w Markdownie różnego rodzaju znaczniki formatujące tekst,
na przykład jeden hash dla nagłówka poziomu pierwszego, wpisujemy to i od razu w polu edycji, gdzie tworzymy tekst tej naszej notatki, mamy ten nagłówek pierwszego poziomu,
więc działa to całkiem fajnie. Z tymi notatkami niestety niewiele da się zrobić, po prostu możemy je pisać i możemy je grupować w takich folderach,
zresztą no ta aplikacja jak na razie to się chyba dosyć, dosyć rozwija, ona jest na dosyć wczesnym stadium tego swojego rozwoju,
Więc myślę, że tu jeszcze to i owo zostanie dodane, natomiast z racji tego, że to jest elektron, więc jest tu użyta przeglądarka internetowa, no to też mamy poprawę, a właściwie wskazywanie błędów w pisowni.
Co w przypadku tworzenia jakichś notatek, czy np. jakichś artykułów, albo innych rzeczy, no może być dosyć użyteczne, więc jeżeli macie ochotę się tym pobawić.
Dla mnie największym wyzwaniem to było stworzenie właśnie tego projektu, bo to nie jest takie do końca intuicyjne, to się zrobić da, natomiast tam trzeba wybrać odpowiedni folder, trzeba ten projekt nazwać, to okienko raz mi uciekło, potem musiałem do niego wrócić,
Natomiast już potem samo pisanie tego tekstu w ramach tej notatki, którą sobie tam tworzymy, no jest proste, no i to formatowanie, które pojawia się w czasie rzeczywistym, kiedy tylko wstawimy odpowiednie znaczniki, również jest fajną opcją.
Także czy będę tego używał jakoś regularnie, nie wiem, natomiast znalazłem, więc się dzielę.
I chyba ostatni news zapisany tutaj w notatkach, choć już wiem, że nie ostatni w audycji, jest od Piotrka, tutaj ciągle Apple kontra Unia Europejska i to co można, czego nie można na iPhone’ie będzie zrobić, no tutaj walka trwa.
No teraz prawdopodobnie w Europie aplikacje na iPhone’a ściągniesz także ze strony dewelopera.
Tak, a przynajmniej niektóre aplikacje, no dokładnie, cały czas gdzieś przeciąganie linii trwa i to jak to prawo będzie egzekwowane przez różne firmy, no cały czas się kształtuje, Apple próbowało forsować swoje, no była krytyka od różnych osób łącznie z Parlamentem Europejskim, no i różne zmiany pomału są wprowadzane, no i doszło teraz do kolejnych zmian.
Ja tylko przypomnę, wszystko zaczęło się od tego, że jednym z wymogów Unii Europejskiej co do
Apple i konkretnie co do App Store jest to, że przynajmniej w Europie na iPhonach, tylko na
iPhonach, bo tak akurat prawo zostało napisane, ma być dostęp do sklepów
alternatywnych i jeszcze paru innych rzeczy, jak na przykład innych silników
przeglądarkowych i takie sklepy mają powstać.
Nawet mówiliśmy o jednej firmie, która taki sklep ma niedługo uruchomić.
Natomiast, żeby taki sklep otworzyć, no to musiała być to firma, która na początku musiała
przedstawić akredytację, teraz już tego wymogu nie ma, natomiast to musi być firma, która
przynajmniej przez dwa lata była dobrym klientem firmy Apple na App Store, że nie miała
jakichś problemów, miała ponad milion instalacji w Europie w zeszłym roku, jednej ze swoich
aplikacji, czy ogólnie łącznie swoich aplikacji, no i wtedy taka firma
może taki sklep sobie otworzyć.
Na początku było mówione, że w takim sklepie nie mogą być dostępne
tylko aplikacje danej w firmie, jeżeli powiedzmy Microsoft otwiera
sklep, w którym są tylko aplikacje Microsoftu, czy Meta otwiera
sklep, gdzie są tylko aplikacje Mety.
Ten przepis ostatecznie został zniesiony, więc kto wie, czy nie
Będziemy mieć sklep w Microsoftu, gdzie tylko sobie ściągniemy Edge’a Teamsa i Office’a,
no może już takiego Edge’a opartego o silnik Chromium, no bo Edge tak naprawdę to jest też właśnie Chromium.
Kto wie, zobaczymy. To jest jedna zmiana.
Druga zmiana jest właśnie tym, o czym było w chatach, o czym mówił Tomek przed chwilą.
Mianowicie oprócz tego, że takie aplikacje będziemy mogli ściągać ze sklepów,
więc po prostu no wchodzimy do sklepu, no musimy ten sklep zainstalować i zaufać mu
i dopiero później z tego sklepu możemy aplikację ściągać.
No to będzie też możliwość, taki bardziej klasyczny sposób,
jak to się kiedyś robiło na komputerach czy nawet na pierwszych telefonach,
pierwszych smartfonach, instalowania aplikacji po prostu ze stron producenta.
To będzie wyglądało w sumie bardzo podobnie jak instalacja
aplikacji przez zewnętrzne profile.
To jest bardzo popularne w Chinach, jak ktoś różne chińskie gry na iPhone’a próbował instalować, to możecie z tym spotkaliście, że przy pierwszej instalacji będziemy musieli danemu developerowi w ustawie jak zaufać i dopiero wtedy taka aplikacja nam się zainstaluje.
No z tą różnicą, że gier tam to było robione, żeby gdzieś obchodzić regulacje App Store’a i te profile często po tygodniu nawet wygasały, no to tutaj jest wszystko robione jak najbardziej legalnie.
Procedura będzie podobna, natomiast to nam po tygodniu nie wygaśnie i taka aplikacja będzie mogła się spokojnie aktualizować i nawet w kopiach zapasowych też się będzie odtwarzać, więc ona się będzie cały czas z nami systemem fajnie integrować, natomiast to będzie gdzieś utrudnione.
Drugim utrudnieniem będą wymogi, które musi spełnić developer.
No bo ten wymóg, o którym wspominałem przed chwilą, że taka firma musi mieć gdzieś ponad milion instalacji pochodzących z Unii Europejskiej w ostatnim roku,
no właśnie też podlega firmom, które chcą sobie aplikację przez stronę dystrybuować, więc nie wiem.
Firefoxa, czy właśnie jakieś aplikacje Microsoftu, czy jakiegoś Spotify’a, no to dałoby się w ten sposób ściągnąć bez większych problemów,
ale gdyby jakiś mniejszy deweloper chciał sobie taką możliwość udostępnić na swojej stronie
no to niestety na ten moment tego się nie będzie dało zrobić
zresztą samo Apple przyznało, że mniej niż 1% deweloperów spełnia te wymogi w tym momencie
więc pewnie to jest tłumaczone tym, żeby nas zabezpieczyć od jakichś oszustw
no gdzieś poniekąd na pewno to jakiś to efekt będzie miało, bo wyobrażam sobie, że ktoś mógłby takie oszustwa wprowadzić.
Nie wiem, jednak z drugiej strony moim zdaniem byłoby fajnie, jakby te przepisy jeszcze zostały zwłagodzone.
Inna sprawa, że w ciągu kilku tygodni, kiedy to wszystko zostało ogłoszone, to już parę takich zwłagodzeń mieliśmy,
więc bardzo możliwe, że za tydzień, dwa sytuacje jeszcze raz się zmienią i jeśli tak będzie, to na pewno znowu wam powiemy.
Więc jak to finalnie będzie wszystko wyglądało?
Jak widać sytuacja zmienia się dynamicznie.
Jak na razie pomału, pomału, ale raczej na korzyść, mam wrażenie, użytkowników.
I zostały chyba…
A nie, to wszystkie newsy, które mamy wpisane,
ale to nie wszystkie newsy, które mamy dla Was przygotowane na audycji.
Bo o jednym newsie szczerze mówiąc zapomniałem.
Przypomniałem sobie już dosłownie kilkanaście minut temu.
Eleven Labs wprowadził możliwość tworzenia dźwięków, czyli w Elevenie już nie generujemy wyłącznie mowy, ale również dźwięki.
Od bardzo niedawno wprowadzana nowość, na razie w ogóle ta nowość jest wprowadzana tylko w Alphie, to znaczy, że trzeba mieć dostęp do ich produktów Alpha, jest link, przez który można się do tego zapisać, ja już go w tej chwili nie pamiętam, w każdym razie to działa, no i wygenerowałem sobie kilka dźwięków, brzmi to zaskakująco dobrze, tak szczerze mówiąc.
Zresztą od niedawna jest historia i możemy sobie sprawdzić kilka dźwięków.
Na początku wpisałem sobie samochód, który przejeżdża z lewej do prawej.
Już od razu mówię, bo nie wiem czy będzie słyszane stereo, natomiast wygenerował samochody przejeżdżające od prawej do lewej.
To znaczy tutaj na zoomie to będzie słychać, ale w radiu chyba nie.
Nie wiem Michale, jak to wygląda?
Nie no, powinno też być słychać, jeżeli dasz dźwięk stereo, to będzie stereo.
Chyba jest stereo, zobaczmy.
Jest.
I przy każdym stworzonym dźwięku jest generowanych pięć różnych wersji.
Więc to jest wersja pierwsza tego przejeżdżającego samochodu.
To jest druga, bardzo głośna, trzecia, to nawet z bonusem można powiedzieć, no ale jest, czwarta i ostatnia i rzeczywiście to działa.
Natomiast wcześniej jak wpisywałem Car Passing, to wcześniej stworzył mi takie dźwięki, albo takie i już, jakieś takie kawałki czegoś.
więc czasami robi takie dziwne rzeczy, nie mniej, no co tam jeszcze, na przykład, o, bardzo jest ciekawe, wpisałem notification
i moim zdaniem to się świetnie nadaje do tworzenia takich zupełnie własnych dźwięków powiadomień, zobaczcie
Okej, nie każdy chciałby mieć coś takiego, ale coś takiego jak w drugim, proszę bardzo, normalne powiadomienie, trzeci, trzecia wersja.
I to są normalne dźwięki powiadomień, jakie no, pfff, można by sobie spokojnie wystawić gdzieś tam.
Daj, żeby takie trochę starsze robił, takie bardziej podstawowe takie, że trochę oparte o jakieś fale, jakieś prostokąty.
Być może, ja na przykład wpisywałem etno, ja wpisywałem etno i faktycznie było kilka na jakichś fletach, na czymś, to można sobie robić jakieś różne.
Ciekawe, czym dzwonek monofoniczny bym wygenerował.
Nie wiem, być może, natomiast na pewno ma problemy z tworzeniem takich bardziej zaawansowanych, na przykład kiedyś mu wpisałem, że człowiek wbiega po skrzypiących drewnianych schodach,
no to albo nie wbiegał, albo nie po drewnianych, albo nie po schodach, a nigdy po skrzypiących, więc, no, im bardziej jest to złożone, tym mniej ogarnia, że tak powiem, natomiast, no, do tworzenia takich efektów na szybko, coś jak najbardziej, no, no i jeszcze sobie wpisałem Birdsong i jak najbardziej jest.
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
GENERATOR PUSTA
Co ciekawe, to się również nadaje do muzyków, dla muzyków.
Ja tu może sobie spróbuję wygenerować teraz coś, bo to są dwie zakładki.
Generating history.
Na przykład wpiszę sobie Acoustic Drum Loops.
Zobaczymy co wygeneruje, każda taka generacja kosztuje 150 znaków, więc i mało i dużo trudno powiedzieć jak to przeliczać, na pewno nawet w tym planie darmowym to można sobie kilkadziesiąt dźwięków pierwszeństwnie wygenerować, więc chociażby do takich powiadomień to spokojnie obleci, żeby sobie pogenerować różne.
generacjom 1, przycisk generaty są, generacji pusta, pusta
się wygenerował, zobaczymy co stworzy, on często lubi jakieś takie drum’n’bassowe
albo elektroniczne miło wszystko tworzyć, zobaczymy co zrobi teraz
no, jest, coś, drugie
czy to jest pętla to bym nie powiedział, ale okej
no, dobra
jak widać właśnie z tą akustycznością
teraz ma czasem problemy i niektóre są dość podobne do pierwszych.
No właśnie, teraz zrobił coś takiego, ale nieraz robi trochę lepsze te pętle
i to się mi, myślę, że mogłoby mi się to przydać w jakichś takich celach produkcyjnych.
Kiedyś też na przykład, nie wiem, jakaś gitara wpisywałem czy coś
i też jakieś właśnie dźwięki takie gitarowe, więc myślę, że jeżeli ktoś lubi jakieś właśnie dźwięki powiadomień czy dzwonków z jakiegoś konkretnego typu,
to być może udałoby się coś stworzyć właśnie dzięki temu, możliwe, że bawiąc się troszeczkę jakimś edytorem audio,
Ale myślę, że jak najbardziej jest to możliwe. Oczywiście widziałem jak ludzie się tym bardzo bawili, np. wpisywali czwartek, albo to już jest koniec, albo jakieś takie w ogóle dziwne rzeczy i dostawali dziwne dźwięki.
Niemniej myślę, że to jest jakoś tam kreatywne narzędzie i myślę, że można się troszeczkę tym zainteresować, jak ktoś lubi oczywiście.
No i teraz pytanie, czy ktoś coś jeszcze znalazł na przykład w trakcie audycji, albo zapomniących jak ja.
Ale chyba nie.
Zatem kończymy chyba dzisiejszy Tyflo Przegląd.
Paweł Masarczyk, Piotrek Machacz, i ja, czyli Tomek Bilecki
braliśmy dzisiaj udział w Tyflo Przeglądzie i Państwo, za co oczywiście bardzo dziękujemy.
No i zapraszamy na kolejne audycje w Tyflo Radiu, których jeszcze miejmy nadzieję dość dużo przed nami.
I dobrej nocy.
Dobrej nocy.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.