TyfloPrzegląd Odcinek nr 226 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
Dzień dobry, dzień dobry. To już, która? To 226 audycja.
Tak, audycja Tyflo Przeglądu.
A dzisiaj w studiu mamy Paulinę Gajoch, mamy Pawła Mazarczyka, jest jeszcze Michał Dziwisz i ja, czyli Tomek Bielecki.
No i co, żeby nie przedłużać, to może zacznijmy od tego jak zwykle, co dzisiaj przygotowaliśmy dla Państwa.
Troszeczkę tego jest i jak zwykle opowie o tym Michał Dziwisz.
W tym tygodniu w Tyflo Przeglądzie.
Pikibot. Opisywanie obrazów różnymi modelami językowymi.
Blind People Helper. GPTs dla niewidomych.
Za Voice Dream Readera zapłacą wszyscy. Ci, którzy go już kupili, również.
Nowa wersja audio menadżera dla NVIDIA.
Nowe dodatki dla NVIDIA.
Saver Vision. Szykuje się polski odpowiednik Envision Glasses.
Whatsapp z nagłówkami dla dat wiadomości.
Usprawnienia syntezy mowy w Blind Shell Classic.
Trados stanie się bardziej dostępny.
Konferencja Apple WWDC 10 czerwca.
Od czerwca prawdopodobnie mniejsza dostępność kierowców w Uberze i Bolcie.
Trzecia wersja Chirpa dostępna dla wszystkich.
Dodatkowa weryfikacja w płatnościach portfelem Google.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyfo Przegląd jest audycją na żywo,
dlatego zapraszamy Państwa do kontaktu z nami na różne sposoby.
Można zadzwonić pod numer 663-883-600,
powtarzam, 663-883-600,
lub wysłać pod ten numer wiadomość głosową na Whatsappie.
Można również napisać do nas wiadomość tekstową
używając formularza na stronie kontakt.tyfropodcast.net
lub aplikacji na system Windows od Dawida Piepera.
Czekamy również na kontakt pod transmisjami na Facebooku oraz YouTubie.
Staramy się także zaglądać na nasz tyflopodcastowy serwer Discorda.
Zachęcamy więc Państwa do dzielenia się z nami wniosami, pytaniami czy komentarzami.
I zaczynamy już od razu od nowości na ten tydzień. Nie ma dzisiaj nic z poprzedniej audycji, natomiast jakby ktoś, komuś było mało w ostatnich audycjach
sztuczno-inteligencji, no to dzisiaj troszkę tego będzie. No i zaczynamy już od razu.
Zawsze się zastanawiacie o tym.
Tak, ale dzisiaj, no, kilka osób coś przygotowało.
Także jakoś tak się dzisiaj poskładało dość mocno sztuczno-inteligentnie.
No i zaczynamy od newsa, od Pawła, który to przygotował, informację o tym,
że powstał bot, który ma opisywać obrazki i w tym nie byłoby nic dziwnego,
ale robi to przy pomocy różnych modeli językowych.
Tak, ja może jeszcze wrócę na chwileczkę mimo wszystko do sekcji komentarzy,
bo Mateusz, nasz słuchacz Mateusz zostawił bardzo ciekawy link
pod ostatnią audycją, link do tunerów radiowych,
którymi można sterować za pomocą komputera
i słuchać też, co tam wysterowaliśmy.
Ja może ten komentarz przeczytam,
bo mi się to skojarzyło z czymś, o czym my już kiedyś w Tyto Podcastzie mówiliśmy
i o czym audycja też już była.
Natomiast Mateusz pisze tak.
Tak przy informacji o streamach
Polskiego Radia podziela się
ciekawym znaleziskiem.
Jest strona w sieci, gdzie możemy
wybrać
udostępniony przez kogoś
odbiornik radiowy, a potem zdalnie
zmieniać częstotliwości i w ten sposób
podsłuchiwać ether z dowolnego
zakątka świata.
Oczywiście odbiorniki
wybierają się na niedostępnej dla nas mapie,
ale wystarczy kliknąć
Receivers na dole strony
i wyskakuje testowa lista z linkami.
Tylko jedna uwaga, do konkretnego odbiornika
może być podłączona tylko jedna osoba w tym samym momencie,
więc nie używajmy tego jako streama 24 godziny na dobę,
7 dni w tygodniu, żeby inni też mieli szansę skorzystać.
A tutaj link i link jest
list.fmdx.pl
Tej strony nie znałem, szczerze mówiąc, ale my już kiedyś chyba w TV Podcastie mówiliśmy o innej tego typu inicjatywie i to chyba nawet takiej, gdzie kilka osób śmiało może jednocześnie korzystać, jeżeli się nie mylę, czyli Global Tuners.
I tam rzeczywiście są odbiorniki z całego świata i można nimi rzeczywiście sterować, jeżeli dobrze pamiętam, dawno tam nie byłem.
Dobrze pamiętam, to niestety też to działa tak, że oczywiście słuchać może kilka osób, ale jak będziemy zmieniać te częstotliwości, no to wszystkie osoby podłączone do tego odbiornika będą słyszały to samo, więc nie da się tak jakby rozmnożyć tego jednego sygnału.
To mi się pomyliło z sdrami, z web sdrami, gdzie chyba jest tam dużo większa dowolność.
No właśnie tam chyba też, chyba generalnie działa to wszystko na tej samej zasadzie,
że zawsze, kiedy podłączamy się do tego odbiornika, no to możemy sterować,
kilka osób może oczywiście słuchać, ale jak będziemy zmieniać częstotliwości,
to to ma wpływ na wszystkich. Jeżeli się mylę, to jeżeli ktoś coś więcej wie na ten temat,
to może mnie poprawić, bo aż tak bardzo nie śledzę tego tematu, trochę się kiedyś tym bawiłem,
No i tak mi wyszło z obserwacji po prostu.
Rozumiem, no to prawdopodobnie masz rację,
ja już też dawno sobie z technologii nie korzystałem,
ale są to ciekawe zjawiska,
bo rzeczywiście można sobie podzielić z kimś ether.
No a teraz już do aplikacji.
Bot jest zasadniczo tylko w nazwie PikiBot.
P-I-C-C-Y-Bot.
No to jest aplikacja na iPhona,
która opisuje zdjęcia,
w tym nie byłoby nic dziwnego, ale opisuje je nam głosem też wygenerowanym przez AI
i nawet głosem w języku polskim, który jakieś tam emocje próbuje naśladować.
No jakby zwrot akcji polega tutaj na tym, że tym razem po pierwsze możemy w wersji,
jest w ogóle wersja darmowa, która nam daje takie jakieś podstawowe opisy
i jest wersja płatna, gdzie mamy do dyspozycji w ogóle jakąś konfigurację
tych głosów, długości tych opisów, czy chcemy korzystać z silnika GPT-4,
czy Gemini, czy Claude, czyli ten taki trzeci AI,
czy z czego jeszcze chcemy korzystać.
Możemy się tym troszkę pobawić.
No i jeszcze jeden zwrot akcji polega na tym,
że te opisy są wzbogacane o jakieś takie konwersacyjne szczególiki,
że on próbuje zrobić z tego taką jakby,
może nie historię, ale próbuje z nami jakoś nawiązać kontakt
i jakoś nas zmusić do jakiejś refleksji,
takiego uzupełnienia takimi swoimi bardzo osobistymi,
mam wrażenie, przemyśleniami.
Ale no właśnie, żeby nie być gołosłownym,
może ja zademonstruję po prostu.
To jest PeakyBot, ja może przełączę na jakąś wolniejszą syntezę.
Tu możemy wpisać prompt, on jest na razie po angielsku,
ja go przepiszę może na polski.
Ja może napiszę tak konkretnie, że opisz, co jest na zdjęciu.
W języku polskim, a nie inaczej, że to nie po polsku, opisz w języku polskim.
I się tak wreszcie trzyma?
Tak, ten prompt się niestety resetuje.
No aplikacja jest domyślnie po angielsku, co jest?
No to jest dość jakby logiczne, tylko rzeczywiście fajnie byłoby gdyby można było sobie zawaltać ten prąd, bo to rzeczywiście mogłoby pomóc.
No i mogę zrobić zdjęcie aparatem, więc mogę albo zrobić zdjęcie ad-hoc, albo wybrać z galerii, to zrobię.
Ale wydaje mi się, że to jest chyba jedyny taki pomysł, jeżeli mu już to klodem się da, to jest chyba jedyny, czy jeden z nielicznych sposobów na to, żeby ten klod był dostępny u nas, bo on chyba w ogóle nie jest dostępny tak prosto.
No właśnie, ale u mnie jakoś, w tej aplikacji jakoś działa.
Tylko ciekawe, czy to, która to jest wersja, czy dwójka, czy trójka?
Nie wiem, niestety. No ale zobaczmy zaraz. Zróbmy na razie zdjęcie.
i tu mogę jeszcze je dopieścić, no ale ja nie bardzo umiem, więc gotowe.
I teraz ja wyłączę już mowę i niech on przejmie stery.
Pytanie, czy posłucha mnie i czy rzeczywiście opisze po polsku,
bo może być różnie niestety.
A co by znaczyło, że on prawdopodobnie coś wie?
To jest tło w odcieniu czerni.
Wyjątkowo modny. Bardzo treściwy, prawda?
Aha, czyli światło potrzebne.
Chyba tak.
No więc…
Zobaczmy, jak to wygląda na ekranie,
bo ten opis, który pani nam tu przeczytała
nie jest zgodny z tym, co jest napisane na ekranie.
Mowa pod mikrofonem.
Kronopastwa Red to jest czarne włosy.
Kronopastwa Red to jest czarne włosy.
Kronopastwa Red to jest czarne włosy.
Kronopastwa Red to jest czarne włosy.
Kronopastwa Red to jest czarne włosy.
Bo te z OpenAI są takie bardzo zangielszczone.
On też potrafi sobie tak zangielszczyć czasem.
W ogóle anglicyzmy wstawia.
Czasami tyle wrzuca, że nawet ja tyle operuję w mowie potocznej w języku polskim.
Więc jest to ciekawe zjawisko.
Na pewno nie są te głosy, które są dosyć na wystawieniach chata GPT.
Tak, ok.
Tu jest długość tych opisów.
To była Google Gemini.
Teraz przestawię na przykład na GPT.
To jest 3, a jest 3, dobrze.
No to dajmy klatka 3.
I teraz zamkniemy.
I on go przetworzy raz jeszcze.
No i poczekamy.
Trochę dłużej niż Google to działa, widzę.
Tak, to prawda.
Ale w końcu gdzieś się doturla.
To jest ciekawe, że on zawsze właśnie daje ten opis inny,
tekstowy niż głosowy.
Za chwilkę jeszcze sobie z nim porozmawiamy,
bo to jest ikonka mikrofonu i można w ogóle mu wydać jakieś polecenie.
Znaczy zadać pytanie o to zdjęcie.
A próbowałeś wyskakiwać?
A właśnie.
Czy co próbowałem?
Czy próbowałeś wyskakiwać z tego?
To znaczy zadawać mu jakieś pytanie
niezwiązane ze zdjęciem.
Jeszcze nie, ale mogę spróbować.
Szkoda, że nie mam iPhone’a,
bo lubię takie zabawy.
O, chyba nie dostarczył.
Zwycięstwo Cloud tu istnieje tylko teoretycznie?
On mi w nocy jeszcze działał, żeby było śmieszniej.
No ale dobrze, spróbujmy GPT.
Tu już powinno pójść trochę gładko.
Znaczy dużo bardziej gładko, bo jest to GPT-4, wiemy, że działa.
Przynajmniej takie mamy podejrzenia.
Mam nadzieję, że to nie jest mój internet tym razem w telefonie.
Tylko, że rzeczywiście coś usłyszymy.
Natomiast aplikacja jest darmowa, ale nie ma tych wszystkich opcji.
Opcje się aktywniają w wersji…
Na przedstawionym zdjęciu patrzymy wprost na powierzchnię,
która jest kompletnie czarna, absolutnie bez wyraźnych szczegółów.
Można pomyśleć, że jest to obraz całkowicie czarny,
co może być spowodowane jakimś błędem podczas robienia zdjęcia
albo intencjonalnie tak zostało zaprojektowane.
Wow.
No coś takiego.
I teraz opis tekstowy, który się pojawił tutaj.
Settings, bits, syp, szare.
Hat i sink, disk, map, przesłany, obraz, ja widać jednolitą czarną powierzchnię
bez rozpoznawanych elementów.
Wygląda to na całkowicie czarny obraz,
co może wynikać z błędów procesja tworzenia zdjęcia
lub celowego utworzenia takiej grafiki.
Czyli tu jest bardziej taki fachowy, treściwy opis.
Tak, a tam tak bardziej potocznie.
Potocznie, opisowo, konwersacyjnie.
Ja może inaczej, zróbmy jeszcze jeden test.
Przepraszam, mam nadzieję, że macie na mnie cierpliwość,
ale otworzę komputer
i zrobię po prostu zrzut ekranu.
Bo tu już powinno być coś widać.
I teraz…
Ale co za palmarze światła?
Musiałbym podejść do…
Musiałbym podejść do…
Tu nie ma właśnie tej opcji.
Niestety, no ale dobra.
I teraz jak rozumiem GPT będzie analizował.
Tak, teraz GPT będzie rozpoznawał ekran mojego komputera.
Może kawałek ręki albo mikrofonu jak ujął w tle.
Zobaczymy.
Tutaj też przełączenie kamery jest, ale niestety nie wiadomo,
która jest aktualnie ustawiona.
Na tym ujęciu mamy do czynienia, prawda,
z ekranem kompa czy notebooka, który jest odwrócony
i tak jakby trochę niewyraźny,
co sprawia, że ciężko na 100% stwierdzić, co tam jest wyświetlane.
Wiecie, co mam na myśli?
No, chyba wiemy.
No i tu jeszcze raz opis.
koncepting, pitch, sharp, hazy, synthesis,
a zdjęciu widzimy ekran komputera lub laptopa,
który jest obrócony i nieco rozmyty,
co utrudnia dokładne zidentyfikowania wyświetlanych treści.
No, czyli on przetwarza na taką umowę potoczną kompa,
jakieś takie młodzieżowe, potoczne, bardzo skrótowe zwroty
i opowiada w taki sposób,
natomiast ja spróbuję teraz z nim pogadać.
Kamera, siercisk, mikrofony, plan olej, ekranu, ton.
Settings, siercisk, komplet aktowy, settings.
Pizd, szare, czywidać, analizy, inki, magia.
Z całym szacunkiem, ta fosilacja jest nieostra i odwrócona.
co czyni odcyfrowanie zawartego na niej tekstu
mocno skomplikowanym zadaniem.
Ale wiecie co?
Wydaje mi się, że to interfejs strony internetowej,
takie różne ikonki, detale, które znamy z aplikacji internetowych.
Wszystko wygląda jak zmodny, nowoczesny design na fali, prawda?
Śmieszne są te opisy.
Tak, no więc tak to mniej więcej wygląda.
Pokażcie jakiś głos.
No głosy, dobrze.
Można?
No to set things.
Ale ciekawe jest w ogóle to,
że ja nie zmieniłem w ogóle teraz prompta
I powiedział mi po polsku.
A bo też masz tą aplikację już.
No właśnie zainstalowałem sobie.
Okej, no dobra, to uwaga głosy.
Tylko niestety demka będą po angielsku.
Ale barwa głosu będzie podobna.
Hello, this is Onyx. Thanks for using Pikibot.
Tu jest ta pani, którą miałem teraz.
I tu jest pani Shimmer.
Hello, this is Shimmer. Thanks for using Pikibot.
Czy w zależności od głosu te prompty się w jakiś sposób różnią?
Bardzo możliwe, bo tu moja pani była fashionable i bardzo podkreślała, że coś jest modne,
Tak, tak, tak, tak.
Pokaż ten Enthusiastic, zobaczymy.
No to dobra.
Happy? Czy który to był, Happy?
A to nie.
A, ten.
Okej.
Fajna zabawka.
No to raz jeszcze.
Czy możesz opisać, co jest na zdjęciu?
No i teraz on będzie myślał.
I za chwilę się pewnie przekonamy.
To czemu nie daje tego dźwięczku teraz?
Bo zadałem mu pytanie i ma…
On przełączał mikrofon
na słuchawkę telefonu
i chyba się ten dźwięk niestety
zaczął odtwarzać tam, potem wybiło go znowu na głośnik
i to się tam urwało czy, czy coś, taki jakiś bug w aplikacji.
…podesłałeś, uch, ciężko mi dokładnie określić, o co chodzi,
bo jest jakoś tak obrócone i nieostrzyści,
co powoduje, że trudno rozpoznać detale.
Ale tak na pierwszy rzut oka,
wydaje mi się, że to jest ekran komputera lub laptopa
z otwartą jakąś stroną internetową albo dokumentem.
Aha.
No i tu już z angielszcza nieźle, w sensie ma akcentację już.
Ale też, no trochę inny jest sposób mówienia.
Tak, odrobinę inaczej. Ale to jest fajne, kurczę.
Aplikacja ma dwa modele. Jest wersja subskrypcyjna,
która kosztuje chyba 14 zł na miesiąc,
ale też można kupić za złotych 70, to daje się dwa,
tą wersję, tą aplikację w wersji pełnej,
No, jakby Lifetime, oczywiście, co taki Lifetime jest warty?
Jak się dziś dowiemy, to…
Dowiemy, różnie bywa, no ale przynajmniej na razie nie trzeba będzie płacić za, nie wiem, miesiąc, rok i tak dalej.
No więc, jeżeli was zainspirowała do czegokolwiek ta aplikacja, no to pizzcybot w App Store jest dostępny, możecie się tym pobawić, jak chcecie.
No dobrze, to przechodzimy dalej.
Do telefonu.
Do telefonu, bo mamy Patryka po drugiej stronie. Patryk się naczekał już chwilę, ale już, Patryku, twoja kolej. Dobry wieczór.
No dzień dobry, no naczekałem się i po prostu czekałem, bawiłem się po prostu wyśmienicie słuchając tych pięknych opisów, które tutaj, tych zdjęć.
Ja bym jeszcze chciał poprosić o nazwę tej aplikacji, bo po prostu bawiłem się super i chce się jeszcze tak dobrze pobawić dzisiaj wieczorem.
PICCY, P-I-C-C-Y-B-O-T, jedno słowo.
A, PITCY, tak jak PITCA, nie?
No PITCA to raczej przez Z, ale tutaj od PIC, od PICTURE.
A jaka jest, powiedzcie mi, różnica między wersją darmową, a subskrypcyjną?
W wersji subskrypcyjnej są w ogóle dostępne ustawienia, czyli możesz sobie skonfigurować głos,
możesz wybrać, z którym silnikiem ma być rozpoznawane i możesz dostosować tę długość opisów.
Jezus, to wersja darmowa to co, to wersja darmowa mi nie będzie po polsku rozpoznawać ani z tych rzeczy?
Nie, no przecież głosy były tylko, to było brzmienie głosu, jeżeli zadasz prompt po polsku, to wyjdzie wynik po polsku.
Nawet nie.
Po prostu nie będę miał dostępu do ustawień.
Nawet nie, dlatego że ja właśnie nie ruszałem w ogóle prompta i dostałem po polsku.
A ja dzisiaj ruszyłem prompt na polski i dostałem po angielsku, więc to naprawdę różnie działa.
Ok, to jest kwestia silnika, więc trzeba poeksperymentować.
Ja zrobiłem w ogóle zupełnie domyślnik ustawienia, jak prosto zrobiłem zdjęcie i tyle.
Czyli nie wejdę w ustawienia, tak?
Dokładnie, zaraz w przycisku settings będzie przycisk subscription.
A powiedzcie mi, czy aplikacja potrafi też, tak jak Be My Eye, obsługiwać bibliotekę naszych zdjęć, że można po prostu jej udostępnić?
Z tego co wiem, to tak. Był przycisk choose from gallery, czy tam choose file, ale też zdaje się, że udostępnianie jest do tej aplikacji.
A ta pani, która mówiła, to co to jest za neuron, to jest jakiś…
No właśnie nie wiemy. Czy to jest Eleven Labs jakiś, czy to jest GPT?
Bo to tak ładnie mówi, to tak książki można było fajnie tym czytać.
Wiecie, tak naprawdę teraz jest sporo tych technologii od syntezy, mowy, które obsługują Polski, tylko to są często takie technologie, które albo trzeba jakoś mnie wszystko przygotować.
Są nie barki jakieś, może jakieś coś?
Barki jest chyba w 16 kilohercach, teraz są jakieś XTTS, coś tam jeszcze, nawet podobno ktoś whispera, udało mu się jakoś odwrócić, żeby on nie rozpoznawał mowy, tylko generował mowę i też jest coś takiego, także teraz robi się różne dziwne rzeczy, tylko to są oczywiście z reguły jakieś bilety do Pajtana.
No tak, ale powstają to jakieś kokui, to jakieś, w hajdżonie też by można było.
Tam od mety jest jeszcze jakaś taka, co tam ma sto ileś języków.
Na pewno jest w internecie Piper TTS.
Właśnie może to też jest.
Skoro już mówimy o SI, o sztucznej inteligencji,
to chciałem powiedzieć o tym, że Microsoft w Windowsie bardzo chce,
żebyśmy korzystali ze sztucznej inteligencji.
Ostatnio z jakąś aktualizacją pawiła mi się bardzo uciążliwa ikonka na pulpicie,
której kompletnie nie wiem, jak się pozbyć.
Nazywa się Dowiedz się więcej o tym zdjęciu.
Jako tooltip jest czytane jakieś zdjęcie.
Dzisiaj miałem jakieś Santa Maria, coś tamtego, że kliknij prawym przyciskiem myszki, żeby coś tam.
Kiedyś to miałem w insajderze. Jakoś się tego pozbyłam, ale nie pamiętam jak.
Centrum uwagi. Zobacz zdjęcia w centrum uwagi.
Ale to w ogóle jest określenie sztucznej inteligencji.
A co to jest? Ja na komputerze żadnych zdjęć nie mam.
To jest jakieś tam z ekranu blokady, jakieś zdjęcia, czy tam jakieś tapety, czy jakieś inne.
Nie wiem, ja to miałam dobre półtora roku temu na insajderze.
No ja chętnie bym się pozbył tego, bo nie umiem tego się pozbyć, a ta ikonka…
Powiem szczerze, ja korzystam z pulpitu dość często i dlatego ta ikonka mi irytuje.
Nie da się jej ani usunąć, ani się nie da po prostu digitem, no nic.
Ani się nie do tego centrum uwagi wysyłać.
Gdzieś w jakichś ustawieniach tego personalizacji może coś jest.
Nie pamiętam. Wiem, że ja się jakoś tak tego pozbywałam, ale już zupełnie nie pamiętam.
To w takim razie sprawdzę.
A jak w ogóle to jest z tym copilotem?
Bo u mnie się ostatnio pokazało, że gdzieś widziałem taką opcję
włącz copilot i to w ogóle w polskiej wersji Windowsa, co ciekawe.
Jak to teraz z tym copilotem jest w ogóle?
czy on po polsku działa, czy on nie działa, czy on działa połowicznie, czy jak to teraz jest, bo u mnie się to pojawiło, ja w to kliknąłem i skończyło się na tym, że się coś pokazało i system się zresetował, już się…
No i działa ci ten skrót Windows C?
No właśnie nie.
Pytanie, czy jest jakaś przymiarka języka, bo ty testujesz insajdery, więc pytanie, czy coś może…
Nie pojawia się po cichu gdzieś.
Szczerze mówiąc, to ja obecnie mam taki problem, że ja w ogóle nie mogę przeprowadzić aktualizacji i muszę ten system przeinstalować, ale
Ale nie widziałam żadnych zmian.
Pętlicie się? Pętlacie się, taka robi?
Znaczy nawet nie, że pętla, tylko po prostu mi się…
Ja daję uruchomienie teraz, a potem jest błąd i panu w próbę i tak sobie mogę.
Spróbuj wejść, ja wiem co trzeba zrobić.
Muszę usunąć tam z tego distribution.
Nie, nie, nie, nawet nie, nawet nie. Wejdź sobie w, jak masz tam w mainstars narzędzia systemowe, to tam będziesz miała w tych narzędziach systemowych oczyszczanie dysku i tam daj, żeby pliki systemowe ci przescanował i po prostu daj oczyścić wszystko to, co ci ta coś tam pokaże i zresetuj komputer. Mi pomogło.
Okej, nie no i tak muszę przenieść…
Albo SeaCleaner też może usunąć te takie…
Ale wracając do głównego wątku,
z tego co pamiętam, to…
dalej to jest niedostępne, aczkolwiek ja do Copilota mam takie trochę
sceptyczne podejście, bo pamiętam jak się
pół świata sztucznej inteligencji zachwycało,
że Copilot na Androida już jest dostępny,
tylko szkoda, że to nic nie umie więcej niż zwykły rząd GPT, więc tak naprawdę…
Może to będzie po prostu Cortana 2.0, czyli pani, która nic nie umie.
Nie, no niby tam to, niby coś potrafi, tam jakieś…
Nie, no wiecie, ja myślę, że będzie, że on będzie potrafił tyle, na ile tego czata GPT,
bo to jest de facto przecież czat GPT, GPT-4, która może być karmiona bezpośrednio z naszego systemu różnymi danymi.
Więc to jest po prostu tylko kwestia taka, jakimi danymi, w jakim stopniu będziemy go karmić,
a na pewno podejrzewam, że bardzo Microsoft będzie chciał, żebyśmy go karmili naszą pocztą, to to już na pewno.
Być może już o nimi.
No już w Outlooku się to dzieje.
No właśnie, no właśnie, więc…
Bo poczta, bo to działa tak, że jak mamy teraz na przykład pocztę na Gmail, to swoją drogą bardzo się zasmuciłem a propos Outlooka,
że niestety ten Outlook na Windowsa i Outlook na iOSa, niestety te skrzynki priorytetowe i inne się niestety nie synchronizują,
synchronizująco, bardzo mnie zmartwiło, bo liczyłem na to, że się to będzie synchronizować.
A niestety na telemobilnym Outlooku zupełnie inne maile mi przychodzą do skrzynki priorytetowej,
a na komputerze też zupełnie inne, mimo że też mam włączoną tą priorytetową,
natomiast ja słyszałem, że to działa także w przypadku Gmaila, zanim ta poczta przejdzie przez Outlooka,
to ona być musi przejść przez konto Microsoft, gdzieś tam, a i dopiero potem do Outlooka.
Tak gdzieś coś czytałem, że to tak od razu nie jest fajnie.
Tak, bo tak Microsoft robi.
Mi to nawet kiedyś wyszło z testów, oglądając nagłówki wysyłanych wiadomości.
Aha, to ja się tak nie oglądałem, aż kiedyś przyglądałem temu.
A jak u ciebie jest, ty masz w ogóle tego outlooka Michale na Windowsie?
Nie, to znaczy, jak go dostałem, chociaż wcale o niego nie prosiłem,
ale już mi się pojawił jakiś czas temu, ale ja go odpaliłem
i no, ja nie jestem w stanie z tego programu korzystać.
Ja go polubiłem.
Ja nadal używam Beck i jakoś chyba przy niej zostanę.
Ja go polubiłem. Ja też.
Natomiast nie macie gier dzisiaj przewidzianych,
bo zastanawiam się, czy dzisiaj są jakieś gry,
bo trochę jedna rzecz się pojawiła,
znaczy jest kilka nowości, które bym chciał poruszyć,
bo Piotra nie ma dziś.
Piotra dziś nie ma, Piotra dziś nie ma,
więc gier jako takich nie będzie,
ale jeżeli o czymś chciałbyś opowiedzieć,
no to słuchamy.
No to chciałem opowiedzieć pierwsze o nowościach
związanych z naszym ostatnio omawianym
symulatorem na lotu, czyli Eurofly 3.
Pierwsza nowość to jest taka, że pojawiła się grupa nasza polska discordowa, która się nazywa EF3.
Jest link na Eltenie gdzieś w wątku Eurofly. Nie wiem czy Kamil Midzio gdzieś podsyłał link do discorda na jakichś tam listach, tych flossach i innych rzeczach.
Natomiast jest na pewno na Eltenie grupa discordowa.
Na razie nas jest mało, ale na tyle, żeby już tam testować i w ogóle.
Patryku, mam w takim razie prośbę.
Gdybyś mógł mi to wysłać na nasz Tyflopodcastowy Whatsapp,
ja bym sobie to dorzucił do notatek.
Jasne. Zrobię to za chwilę.
Super. Może będzie więcej wtedy ludzi na tym serwerze.
Jasne, że tak. Nie ma sprawy.
To także jest grupa discordowa.
I druga rzecz, dzisiaj pojawiła się nowa wersja Eurofly’a,
w której oprócz poprawek, których nie wymienię,
bo ja zawsze mam problem z wymienianiem,
jakie bugfixy są zapamiętywaniem,
ja zawsze pamiętam tylko, co jest dodawane, a nie co jest poprawione.
Cóż, tak mam.
No to oprócz poprawek, taką zmianą jest to,
że teraz możemy sprawdzić sobie stan techniczny samolotu.
Pojawiła się nowa rubryka pod Control Enter, mamy stan techniczny samolotu,
gdzie między innymi mamy bardzo szybki dostęp do chociażby prędkości przeciągnięcia,
która jest ważna przy lądowaniu.
Tak, bo procedury lądowania, jak wiemy, się ostatnio zmieniły od kilku wersji,
że teraz prędkość lądowania to jest tak naprawdę prędkość
Przeciągnięcia plus 10, to tak, chociaż teraz to tam, no nie będę mówić o tym, bo sam mam problem z lądowaniem, ale w każdym razie jest update.
My też mieliśmy, co było widać w audycji, która podejrzewam, że dziś się ukaże na stronie, trochę obcięta z tych różnych naszych pomyłek, ale to, co najważniejsze, udało nam się z niej wykroić, zachować.
i podejrzewam, że jeszcze do tego tematu wrócimy kiedyś, bo raz, że no, Eurofly musi z tej bety, z tej fazy beta wyjść,
tam jeszcze jest trochę rzeczy, nad którymi Sztefan musi popracować, no i wtedy podejrzewam, że jeszcze spotkamy się na lotnisku i polatamy.
Ok, no to teraz przejdę sobie do nowości.
Jeszcze pozostanę w aktualizacjach, ponieważ gra Advanced Ruins,
czyli ta taka strategia zrobiona przez Francuza,
gdzie sterujemy różnymi jednostkami,
również doczekała się aktualizacji, która to zawiera głównie poprawki.
Advanced World Days of Ruins, to się w zasadzie tak nazywa,
i ta aktualizacja się pojawiła niedawno i dostała poprawki błędów,
aczkolwiek autor powiedział, że będzie tę grę kończył
i rozwój będzie dalej trwał, gdyż on zajmuje się innymi projektami
i chce skończyć story mode, wątek fabularny i w zasadzie większość map
już chcę pododawać, tak że taka informacja jest,
że jest aktualizacja, ktoś jest zainteresowany, to, żeby pobierać.
I to tyle, jeżeli chodzi o aktualizację, natomiast zacznę od jednej nowości,
która przyszła do nas z Chin, a w zasadzie ona przyszła do nas dzisiaj
z aktualizacją, z językiem angielskim.
Ja oczywiście nie wiem, jak to się wymawia, więc powiem, jak to się na to mówi.
Na to się mówi Xiāngshēn Simulator i jest to gra wideo.
Jest to w ogóle gra, w której symulujemy komedię chińską,
znaczy w zasadzie przedstawienie chińskie, tak rozumiejąc z opisu.
Czyli my sobie jesteśmy tam jakąś postacią, jednym z aktorów
I my na przykład ustalamy, co ci aktorzy mają, co my musimy, jak sterujemy tym, jak aktorzy mają odpowiadać.
I żeby na przykład publiczność dobrze reagowała na to, jak my sterujemy tym przedstawieniem.
No i potem, w zależności od tego, musimy tak tą reakcjami, tak dbać o to, żeby ta publiczność była z nas zadowolona, żeby się im podobało, no i żeby bilety potem się sprzedawały, no i my też tam możemy jakoś zarabiać na tym kasę.
I to jest coś takiego, taka symulacja, powiedzmy takiego, nie wiem, to jest coś w formie stand-upu,
mniej więcej ja wcześniej nie grałem, bo jakiegoś powodu nie udało mi się tej gry uruchomić.
To jest w ogóle, Patryku, bardzo ciekawe, że dla niewidomych takie gry mniej typowe też zaczynają się pojawiać
i zaczynają być dostępne, bo na YouTubie ja już widziałem kilka różnych ciekawych symulatorów.
Nam się symulacja kojarzy bardzo często z jakimś pociągiem, samolotem, z tego typu rzeczami, ale tak naprawdę to symulatorów jest mnóstwo, od symulatora więzienia, przez symulator youtubera, tak naprawdę to…
Ja szukałem symulatora radia jakiegoś, radia radiowca…
To tu mamy symulator stand-upera.
No widzisz, ale jeszcze symulatora radia nie znalazłem, jakiejś rozgłośni radiowej.
Tego akurat nie znalazłem, takiego bezpośrednio, ale pewnie albo ktoś już tworzy,
albo już gdzieś jest, ale po prostu o tym nie wiem.
Ale ta działka tych symulatorów to naprawdę jest całkiem spora.
Natomiast mówię o tej grze, dlatego że ona teraz jest bardzo…
do 1 kwietnia obniża i kosztuje 8 zł.
Także myślę, że warto kupić, podobno używa to SAPI, natomiast żeby dostępność w ogóle jakkolwiek była włączona, musi być włączona NVDA, żeby po prostu on tą dostępność sobie włączył.
Mówię, ja w to nie grałem, bo nie chciało mi się coś pobrać to ze streama, w ogóle jest problem jakiś, ostatnio mam z pobieraniem ze streama, ale to jest, myślę, przejściowe, także no, bardzo, bardzo fajnie się podniosę.
Powiedzmy jeszcze raz, jak to się nazywa?
Jeszcze raz, jak to się nazywa, no bardzo dobrze, że tu mam otwarte forum.
Ksianksenfin, dobra, spróbuję przeliterować, X-i-a-n-g-s-h-h-e-n-g, no.
I potem Sim.
Tak, może Arek zadzwoni i powie coś na ten temat więcej.
Natomiast to jest jakaś tam znana chińska drama, czy tam jakaś taka komedia, czy coś.
Nie wiem, no ja nie znam się na chińskiej kulturze, natomiast jest coś takiego, tam jest dubbing jakiś angielski, także zobaczymy.
Ok. Myślę, czy coś… o właśnie, mobilna gra AsmarQuest, która to RPG fabularne z elementami MMO, o którym była tutaj mowa, która jest na systemie Android, już od dawna, w zasadzie od początku.
Wcześniej ta gra była w beta na TestFlight, a teraz już jest oficjalna wersja w sklepie App Store i można ją sobie darmo pobrać.
VoiceOver w zasadzie czyta większość rzeczy, jest już dostępna, są jeszcze jakieś pomniejsze błędy, które poprawione będą.
Natomiast ja polecam tę grę, bo jest to bardzo ciekawe, jest to gra nastawiona na fabułę,
mamy elementy RPG, tak jak powiedziałem, możemy sobie z innymi graczami też robić losowe walki,
PvP tak zwane, możemy sobie tutaj robić jakieś rzeczy typu dungeony dla kilku osób.
Mamy trzydziesty poziom, w zasadzie maksymalny, natomiast ja już mam piętnasty poziom i fabuła jest bardzo fajna.
Sama fabuła zresztą zawiera jakieś, tu musimy jakieś zagadki logiczne rozwiązywać czasami, tu musimy gdzieś na przykład Black Jacka z kimś zagrać na statku,
żeby wygrać, żeby w ogóle nam gdzieś przepuścił.
Jest to taka tekstówka, całkiem fajna, całkiem ciekawa, dostępna, także polecam.
World of Warcraft też ostatnio się aktualizuje.
Do Klasika, nie wiem dokładnie kiedy, ma się pojawić dodatek Kataklizm.
Jest Season of Discovery dla Klasika New Era,
czyli tego takiego klasyka bez dodatków.
I taka jeszcze informacja dla WoWa właśnie.
W WoWie dla Nowego Retailu, jak i klasyku, jest zmiana,
ponieważ pojawiło się narzędzie, które się nazywa…
Czekaj, Paulino, przypomnij mi, jak nazywało się to stare narzędzie do WoWa,
co tą myszkę ekranologowania się tym obsługiwało.
To już chyba jakoś…
WoW menu.
Właśnie, no to już teraz WoW menu nie ma.
Jest narzędzie, które się nazywa
Login Tool.
I to narzędzie Login Tool
działa zarówno
w WoWie Klasiku, jak i w
Retailu, tym że przypominam, że
WoW Retail
WoW Retail
obsługuje dodatek
Blind Slash,
No i ten dodatek konfigurujemy sobie na początku i wybieramy, z jakiego WoWa chcemy korzystać, czy Classica, czy Retaila.
No i on działa zupełnie tak samo, jak robiliśmy do tej pory, z tym, że tutaj uwaga, jest błąd w Retailu.
Jeżeli chcemy stworzyć jakąś postać typu ork, wybrać sobie orka, to on w tym momencie nam wybierze orka,
natomiast profesję wybierzemy warriora, a on wybierze huntera.
Więc tutaj warto używać tego starego narzędzia, które jest dostępne do Blind Slash.
Natomiast ten Login Tool, warto wiedzieć, że on robi jeszcze jedną rzecz, której wcześniej nie robił,
czyli akceptuje nam World of Warcraft umowę licencyjną,
bo niestety umowa licencyjna jest ciężka po niewidomemu do zaakceptowaniu,
bo trzeba scrollować ekran i za pomocą ocena było…
No to już teraz tego bólu nie będziesz znała, bo ten login tool zrobi to za ciebie.
A z ciekawości powiedz, czy w login toolu, w sensie czy ty to testowałeś w ogóle?
No, co?
Czy, no ten login tool?
Oczywiście, testowałem go, dlatego mówię o tych blenderach z tym henterem.
Czy w ramach tworzenia postaci jest opcja spersonalizowania wyglądu?
Czy jest tak jak w Open, że wybrać tylko klasę?
Nie, z tego co wiem, tego się nawet zrobić nie da.
Po prostu na razie nie jest to możliwe do zrobienia.
No i w przypadku jak już stworzymy sobie postać i zalogujemy się, warto szybko ten skrypt wyłączać, ponieważ Blizzard w przypadku Retail’a bardzo tego nie lubi.
No a Retail jest grywalny ze Simem Blainstrache’em dla nas?
Jest.
Jest.
Jak najbardziej jest.
Co prawda trochę inaczej się go obsługuje
niż
sku naznane,
bo tam też inaczej questy się zaznacza,
bo tam zaznaczanie questów trochę działa
jak diablo, że po prostu
chcesz śledzić konkretnego questa
i tam cię te
waypointy po prostu prowadzą.
Możesz
nawet kilka questów śledzić i po prostu
Nie będę tego teraz wyjaśniał, bo to nie na tą audycję, ale można o tym, o Retailu audycję zrobić.
Tym bardziej, że Retail jest, przypomnijmy, darmowy, do dwudziestego levela.
Musisz sobie potestować.
Oczywiście, jak coś to ja służę pomocą, bo znam ten dodatek, wiem jak się tam to obsługiwać.
Sama konfiguracja jest bardzo klarowna, także…
Okej Patryku, czy coś dla nas jeszcze masz?
Czy coś jeszcze dla Was mam? No czekamy 2 kwietnia po prima aprilis,
bo kolejny sezon z Diablo 4 się szykuje.
Miejmy nadzieję, że jakieś poprawki, jakaś dostępność się też pojawi.
Oby.
Bo tak co sezon, to oni coś tam dodają.
Także zobaczymy.
Zobaczymy.
No dobrze.
Także to tyle.
Jak to tyle, skoro to tyle, to dziękujemy ci bardzo za telefon.
Jeszcze raz poproszę o nazwę. Pizzy, tak?
Pizzy Bot.
Bot pisane razem.
Tak, to udało mi się Kloda zmusić do współpracy.
I taki opis mojego zdjęcia komputera został popełniony przez Kloda.
Widz cyfo na półszarek czy druga zdjęciu widać fragment dokumentu.
Prawdopodobnie umowy lub faktury. Dokument jest napisany w języku angielskim.
W lewym górnym rogu znajdują się kolorowe ikonki lub znaczniki, które mogą oznaczać
różne sekcje lub kategorie dokumentu. Tekst jest wydrukowany na białym papierze,
a tło zdjęcia jest ciemne, co tworzy kontrast.
No chyba nie bardzo.
Więc tak, więc to była aplikacja PeakyBot, już zamykam temat.
Ale to ciekawe, bo to jest taki jakby trochę sprzeczność, bo z jednej strony mówisz
a potem mówi o Białym Papierze, no to…
Nie każdy, LMM, LLM, LMM i nierówno, no.
A jeszcze jeśli chodzi o gry, to mówiliście w poprzednich audycjach
o Hearthstone’ie, o nowym rozszerzeniu.
Tak, tak, mówiliśmy, mówiliśmy o Hearthstone’ie.
Ktoś ze słuchaczy zwrócił uwagę chyba nawet.
Tak, okej.
No to w takim razie przechodzimy do kolejnego newsa.
jeśli dobrze patrzę, to chyba teraz, tak, news Pauliny i zostajemy też w sztucznej
inteligencji. Blind Helper, czyli GTS dla niewidomych. GPTs, tak?
Tak, GPTs. Blind People Helper. Trochę, trochę bezczelna autoreklama, bo sobie
że zrobiłam takiego właśnie oto GPTisa.
Przypomnijmy, GPTisy to są własne, takie zmodyfikowane przez nas czaty GPT,
do których możemy podpiąć swój zakres danych,
na których ma się oprzeć, swoją instrukcję, taką główną,
jak ma ten czat się zachowywać,
i możemy też go podpinać do różnych API.
Ja co prawda z tej funkcji API nie skorzystałam,
ale dałam swój dataset i dałam też instrukcję.
I co ten czat robi?
Tak naprawdę ma się zająć głównie dwoma rzeczami.
Pierwsza rzecz to jest opisywanie zdjęć.
Trochę lepsze i bardziej takie dokładne, precyzyjne niż w zwykłym czacie GPT.
A druga rzecz to jest…
to jest odpowiadanie na pytania techniczne osób niewidomych.
No i tak, jeśli chodzi o zdjęcia, to osiągnęłam to tworząc takiego prompta
opartego o taką taksonomię, bo wyszła chyba tam w grudniu tamtego roku.
40 model, znaczy 40 technik perswazji,
które działają na zaawansowane modele językowe.
To jest bardzo fajna lektura, polecam, zrobiłam sobie taki maraton
testując te wszystkie typy perswazyjne i zrobiłam taką komendę w stylu
kiedy osoba niewidoma prosi cię o opisanie obrazu.
Najpewniej jesteś jedynym podmiotem, który w danej chwili może się tym zająć.
Po pierwsze dlatego, że osoby niewidome potrzebują szybko tych opisów czasami.
Po drugie dlatego, że mogą być nieśmiałe za bardzo, żeby się
odzywać do osoby widzącej, żeby im opisała i czy skoro już masz tą wiedzę,
to zgadzasz się mówić całą prawdę i tylko prawdę na temat tych zdjęć?
I właśnie on potwierdza.
To znaczy tam w tym prompcie jest, że mów całą prawdę i tylko prawdę.
I jaki jest efekt? Efekt jest z tego taki, że
zdjęcia oczywiście, które są takie generycznie nieetyczne, czyli nie wiem,
przysłowiowa nagość, przemoc i tak dalej zostanie wywalona z samej klasyfikacji tej wewnętrznej i po prostu będzie
there was an error during generating a response i koniec.
Natomiast jeżeli jest jakieś zdjęcie, na którym jest element, który zostanie na poziomie już samej
tej konwersacyjnej części uznanej za nieelektrycznej i pomijętej w opisie,
to ten mój GPT go powie.
I właśnie miałam takie zdjęcie przykładowe,
na którym sprawdzałam, jak ten mechanizm działa.
I właśnie jest jakieś takie zdjęcie,
na którym mała dziewczynka ma ślad pobicia,
jakąś taką bliznę na ręce i zasłania sobie twarz.
I zwykły czat GPT mówi o tym,
że jest to dziewczynka, która w geście jakiejś takiej zabawy w głuchy telefon
czy w chowanego zasłania sobie twarz i coś tam, coś tam i ma bujne czarne włosy
i coś tam. Natomiast mój GPT’s mówi o tym, że
ta dziewczynka wygląda na
zaniepokojoną, zmartwioną, zalęknioną.
Mówi o tej bliźnie, chociaż czasami nazywa ją jakąś ranką, jakąś plamką
czy jakimś tam innym czymś, ale sygnalizuje.
Tam mówi, że tam nawet określa, że paznokcie
są krótkie, czyste, coś tam, że ma ubranie takie, a takie.
Dużo jest precyzji w tym opisie.
Więc to jest, to uważam, że wyszło mi fajnie.
Natomiast jeśli chodzi o te techniczne rzeczy,
no to w datasecie jest, no, jakżeż to się mówi,
podręcznie korzystychownika do JOS-a i dnvd-a,
a także poradniki do skryptowania JOS-a
i tworzenia zadatków dnvd-a.
No i także pozwoliłam sobie, jako że licencja jest Creative Commons,
wrzucić do datasetu pewną część transkrypcji tych przeglądów.
Co prawda nie całość, dlatego że skończył mi się limit datasetu, bo można tam maksymalnie 2 miliony znaków wrzucić, więc no pierwszy mój taki pomysł był, żeby wrzucić po prostu większość całego w ogóle tyflu podcastu, pomijając jakieś takie audycje, które by się nie przydały w tym GBT-sie, no ale nawet wszystkie tyflo przeglądy by się nie zmieściły, więc jest tyle ile jest.
Natomiast dużo łatwiej się nim poprawia kompatybilność dodatków, w sensie kompatybilność jak kompatybilność, ale właśnie jak wyjdzie jakaś nowa wersja NVDA i jakiś dodatek przestanie działać, albo jak chcemy sobie dodać jakąś funkcjonalność, to jest to dużo łatwiej osiągalne niż ze zwykłym GPTIS-em, nawet próbując naprawić dodatek, który się chyba nazywa z tego co pamiętam Explorer Enhancements,
czy jakoś tak, ale musiałabym sprawdzić,
no dobra, nie będę teraz tego sprawdzać.
Chaty GPT, ten mój GPT, nauczył mnie
korzystać z
Accessibility Insights, to jest taka
apka do
sczytywania właściwości kontrolek UIA
w Windowsie. I właśnie na tej podstawie
próbowaliśmy z Chatem zrobić modyfikację,
która by w Windowsie 11 działała
tak, żeby oznajmiać o pustym folderze.
Niestety mi się to nie udało,
ale myślę, że to, co mnie ten czat nauczył
przy okazji robienia tego, próbowania tego zrobić,
mogłoby mi się przydać, gdybym jakoś tak pilnie
potrzebowała zrobić dostępność do jakiejś
wstępnie, ale nie do końca dostępnej apki,
załóżmy, której bardzo często używam, więc ja sobie chwalę, ja tego używam bardzo często,
ale wiem, że będę musiała zrobić reupload. Po pierwsze dlatego, że jest taki request,
żebym popracowała nad tym, żeby dobrze rozpoznawał Captcha, ten GPTees,
Aczkolwiek nie jest to proste, bo zarówno ten mój, jak i zwykły GPT się myli w tych kapczach.
A drugie, że często jak już te strony mają niegooglową, niehackapczową i niemicrosoftową kapczę,
to jest ta kapcza czasowa, więc jak już wrzucimy ten obrazek do tego czata
czata i zanim on się tam przetworzy i zanim wygeneruje odpowiedź, to czasami
potrafi się zdarzyć tak, że już ta kapcza się zmieni, więc
będę nad tym próbować pracować, aczkolwiek nie wiem, czy coś z tego
wyjdzie. No i może
też w ramach tego reupload’u będę dopychać dataset do pełna,
bo tam też zostało mi jeszcze trochę miejsca.
No ale to też może po prostu poczekam na to, aż więcej
rzeczy się zgromadzi do zmiany, żeby móc zrobić wszystko za jednym zamachem,
bo niestety nie da się edytować GPTesa, który już się wyśle na serwer.
Jak już się wyśle, to już jest klapa. Trzeba robić od nowa, żeby cokolwiek tam zmienić.
Więc jak będzie reupload, to oczywiście ogłoszę.
Swoją drogą, a propos Capge i różnych alternatyw dla tego zabezpieczenia,
to ostatnio, właśnie w OpenAI generowałem sobie klucz API i doładowywałem tam sobie konto jakąś kwotą,
tam musiałem sobie jeszcze zweryfikować numer telefonu i ciekawe zabezpieczenie, to też jest jedno z tych większych zabezpieczeń
jakiejś zewnętrznej firmy, nie pamiętam teraz której, ale z jednej strony ciekawe, bardzo ciekawa alternatywa dla tej kapczy,
ale z drugiej strony bardzo irytująca.
Ostatnimi czasy to jest taka moda, mam wrażenie,
na testowanie naszej cierpliwości przez te kapcze,
bo słuchajcie, tam zabezpieczenie jest w postaci takiej.
Ono jest dosyć proste, ale spędzimy nad tym trochę czasu.
Bo ja dostałem na przykład takie zadanie,
że odtwarza ci się…
Odtwarzają ci się trzy, to było nazwane, piosenki.
No, to bardzo na wyrost powiedziane, ale w tych piosenkach, ja akurat musiałem dwukrotnie taką kapczę rozwiązać,
w jednej kapczy miałem wymienić i właściwie wskazać ten utwór, ten fragment, który, w którym instrument zmienia się w połowie,
w innym zadaniu było wskazanie utworu, w którym znajdowałby się śpiew ptaków.
No i wszystko fajnie, bo było to zadanie proste, natomiast problem z tym zadaniem jest taki, że ich trzeba rozwiązać sześć, żeby przejść dalej.
Więc spędziłem na rozwiązywaniu takiej jednej kapczy no kilka minut.
Ale czekaj, sześć w ramach jednej kapczy, czyli dwanaście łącznie?
Tak, dokładnie, dwanaście, dwanaście musiałem rozwiązać, już po prostu, no gdyby mi nie zależało na tym, to nacisnąłbym Ctrl W i zamknął tę stronę, bo o ile ja rozumiem, że dobra, no sprawdźmy, czy ten niewidomy to faktycznie jest niewidomy, czy jest robotem, czy nie jest robotem i dajmy mu jakieś jedno, dwa zadania, ale sześć na jedno podejście i wszystkie, dobrze.
Ja nawet wolę się nie zastanawiać, co by się stało, gdybym jakiś rozwiązał źle.
Czy by mi kazał następne sześć rozwiązywać, czy co on by zrobił?
No nieźle. Ale rzeczywiście to są, no, ja w ogóle jestem ciekaw,
co się będzie z kawczami właśnie działo w momencie, gdy no rzeczywiście
te sztuczne inteligencje zaczną je rozpoznawać podobnie jak ludzie.
bo to już zaczyna się dziać, no i co teraz? Pytanie. Także, no takie ciekawostki.
No nic, przechodzimy do kolejnego tematu, troszkę może sobie odpoczniemy od sztucznej inteligencji,
ale będziemy mówić o tym, że zapłacimy, okej, nie wszyscy, ale wszyscy, którzy mają Voice Dream Reader.
Dokładnie. Wszyscy zapłacimy.
Słuchajcie, Voice Dream Reader jakiś czas temu przeszedł na model subskrypcyjny
i o tym już dobrze wiecie, jeżeli korzystacie albo jeżeli po prostu słuchacie Tyflo Przeglądu.
Mówię tu o wersji na iOS-a, na Maca.
No cóż, a teraz na stronach tej aplikacji ukazała się informacja, która mówi o tym,
że, no niestety, ale od maja to VoiceDream Reader przechodzi na model subskrypcyjny w całości.
Bez wyjątków. Ci, którzy korzystają obecnie z VoiceDreama, którego kupili kiedyś, kiedyś tam,
mają możliwość skorzystania z 20% czy 25% zniżki i zapłacą rocznie, to jest uwaga kwota roczna,
59,99 dolarów, natomiast ci wszyscy, którzy chcieliby po pierwszym maja skorzystać z tego
Voicedreama, no to zapłacą prawie 80 dolarów, tam 79, zdaje się 99.
Więc jest to kwota dosyć wysoka, zwłaszcza dla nas w polskich realiach, no bo nawet uwzględniając
te zniżkę, to to jest ponad 200 złotych rocznie, to dla części osób na pewno będzie cena wysoka.
I teraz, dlaczego tak się dzieje? Przede wszystkim dlatego, że jak Voice Dream, a właściwie jak jego twórcy
deklarują ostatnio, to oni bardzo poprawili te aplikacje. Naprawiali błędy, rozwiązywali różne problemy,
z którymi ta aplikacja się borykała. No i okej, takie jest ich zdanie.
Ja szczerze mówiąc nie zauważyłem, żeby poszło to w którąś stronę, albo jedną, albo drugą, żeby było lepiej, żeby było gorzej.
Ta aplikacja po prostu działała, ale i działała też wcześniej, więc jakoś specjalnie nie zauważyłem tego.
Mają w planie, czy oni to już zrobili, jeżeli chodzi o na przykład integrację z OneDrive’em.
Ma być też jakaś integracja z Kindle’em planowana.
No i oczywiście głosy.
Głosy też, jeżeli chodzi o VoiceDream’a, one mają być dostępne już w ramach tej płatnej subskrypcji.
No i aplikacja na Maca, na iOSa, na Apple Watcha też.
Więc dla tych, którzy korzystają z całego ekosystemu Apple, to może jeszcze być jakoś tam opłacalne.
I co się stanie 1 maja?
Jeżeli ktoś nie zdecyduje się na zakup Voice Dreama,
no to będzie mógł korzystać z tych książek, które obecnie ma w bibliotece.
Po prostu nowych książek nie wrzuci do swojej biblioteki Voicedreama od 1 maja.
Jest link, dzięki któremu można dokonać zakupu Voicedreama po tej obniżonej cenie.
Też ma być możliwość jego zakupu poprzez aplikację, więc jeżeli ktoś wolałby w ten sposób,
to również będzie taka możliwość, czy nawet twórcy deklarują, że już ona powinna się pojawić,
więc są różne opcje do tego, natomiast tak czy inaczej dla nas podstawowa kwestia jest taka,
że trzeba będzie za to zapłacić.
Tak więc ja szczerze powiem gdzieś tam odwlekałem zapoznanie się z tymi różnymi aplikacjami,
bo tak najzwyczajniej w świecie mi się nie chciało, byłem przyzwyczajony do tego VoiceDreama, z którego korzystam już od lat i myślę, że wielu z naszych słuchaczy używa VoiceDreama regularnie, ja też.
I no, najzwyczajniej w świecie nie chciało mi się zmieniać swoich przyzwyczajeń, ale ja podejrzewam, że ja w tym momencie naprawdę spróbuję zaprzyjaźnić się czy z tą aplikacją EasyReader od Dolphina, czy ze Speech Central,
bo po prostu wydaje mi się ta cena jednak no troszkę za wysoka, to jest jednak dość dużo.
Ja myślę, że też marketingowo troszeczkę firma strzeliła sobie w stopę, bo próbowała osiągnąć
kilka rzeczy naraz i nie osiągnęła żadnej, czyli siadła efektywna komunikacja, przede wszystkim
jakieś wskazówki w mailu i to też już ktoś podkreślił, że kliknij w niebieski baner w ustawieniach,
tak jakby w ogóle zapomnieli, kto jest też odbiorcami ich komunikatów.
Ostatnio w poprawkach, w poprawkach…
A czy też, chyba przede wszystkim.
Ostatnio…
Nie, bo dyslektycy były, sektor edukacyjny…
Tylko ciekawiestę, na ile to działa, to znaczy, bo wiecie,
no ciągle będę wracał do tych aplikacji androidowych,
Voice Allows Reader i Smart House Book Player,
to są z tego złożone aplikacje, które owszem, jest tam wspomniane,
że to jest również dla niewidomych, ale tak jakby ci niewidomi, no my jesteśmy tam jakby jaką grupą, no że dla nas też.
A w Voicedream, z tego co wiem, to ci dyslektycy i tak dalej też.
I ja nie wiem, czy, ale nie wiem, to poprawcie mnie, czy to nie jest, bo oni swego czasu mówili,
że trochę mało osób te aplikacje pobrało.
I ja nie wiem, czy to nie jest troszeczkę tak,
że jednak ten Smart Adult Player, tudzież Voice Adult Reader,
to jest aplikacja, która jest zrobiona w taki sposób,
ale nie wiem, że ona jakoś wygląda w miarę
i osoby widzące, no, nie mają żadnego problemu z,
no, z tym, że ta aplikacja jakoś dziwnie wygląda.
Nie wiem, jak to wygląda w środku Voice Adult Readera,
Znaczy, Voice Dream Interactive, nie wiem.
Na pewno jest dużo inwestycji ostatnio w jakieś graficzne kwestie typu marginesy PDF-u.
Tak, poprawa tego, nie wiem jak to na polskim przetłumaczyć, kanwa płótno w sumie, ale…
Płótno, tak, ale…
Co to jest?
Tak, jakieś czytelne czcionki.
Właśnie ostatnio, bo wiecie, bo właśnie Voice Remote Reader to już ma od lat wielu.
I oczywiście tam jest jakby dostosowanie, że no, też dla niewidomych,
Ale to trochę widać, że to ma być rzeczywiście głównie dla ludzi, którzy po prostu chcieliby czytać książki takie zwykłe, no, nietekstowo, bo tak, a przy okazji dla niewidomych.
A tu mam wrażenie, że ta narracja jest trochę odwrotna, że dla niewidomych, a przy okazji też dla dyslektyków i tam dla kogoś i tam coś.
I efekt jest taki, no zobaczymy, czy coś się też nie zmieni, ale w każdym razie aplikacja na Androida, z tego co wiem, no nadal jest, tam nawet nie ma chyba subskrypcji, to jest jednorazowa płatność, owszem, to jest, chyba płaci się 70, ale złotych, a nie dolarów, za te aplikacje, no ale to jest nadal jednorazowa płatność i w złotówkach, a nie w dolarach, więc w dolarach jest jakby jeszcze taniej.
Ja się trochę zastanawiam, czy niestety trochę to nie jest tak z aplikacjami dla niewidomych, że albo one dostaną niestety jakieś dofinansowanie skądś, albo będzie to robił ktoś, kto to robi również dla siebie, no i przy okazji jakby wypuści to dla innych, ale nie będzie na tym zarabiał, no albo te aplikacje będą kończyły właśnie tak jak w Ice Dream Lander, prędzej czy później.
Jeżeli tak, to jest to niepokojące, tak powiem szczerze, bo oczywiście fajnie, że twórcy tych różnych głównych narzędzi zaczynają coraz bardziej dostrzegać to, że także i dla użytkowników z różnymi niepełnosprawnościami,
tym niepełnosprawnościom wzroku opłaca się te aplikacje dostosować, albo ze względów, że to faktycznie czują albo marketingowo, albo po prostu obawiają się, że ktoś ich do tego zmusi, prędzej czy później,
ale no takie aplikacje nam dedykowane często też spełniają różne, mam wrażenie, unikalne funkcje, albo przynajmniej jeżeli nie funkcje, to są w jakiś sposób dość fajnie dostosowane, żeby nam było wygodniej.
A nie zawsze w takiej aplikacji ogólnego zastosowania da się to zrobić.
Owszem, ale no, takie aplikacje właśnie do czytania książek, no to,
dlatego ja się bardzo, ale to bardzo cieszę,
jeżeli właśnie jakaś aplikacja taka ogólna do czytania książek,
dostaje jakieś funkcje dostępności, w ogóle jakaś aplikacja
taka ogólna dostaje funkcje dostępności, no to projektowanie uniwersalne,
no to, to właśnie tutaj widać, dlaczego ono jest bardzo ważne.
No bo jeżeli, powiedzmy, dostanie to jakaś duża aplikacja pokroju, no nie wiem,
jakiegoś czytnika książek po prostu, który dostają, który używają wszyscy,
niech ten czytnik książek dostanie właśnie funkcję czytania na głos.
W miarę jakąś łatwą do wybrania.
To wystarczyłoby, żeby zrobić, zrobiono to w jakiś taki w miarę przyjemny sposób
i mamy aplikację, którą pobiera miliony użytkowników, oczywiście tutaj problem
polega, czy może polegać na tym, że te funkcje dostępności będą gdzieś tam na szarym końcu,
ale to podejrzewam też zależy trochę od samych autorów i od ich podejścia,
ale no tutaj jest stosunkowo mała szansa na to, że faktycznie taka aplikacja stwierdzi,
No bo wiecie, bo w sumie to nas mało osób pobiera i w sumie to teraz płacicie kilkaset złotych rocznie, no bo, no bo, bo nam się to nie spina finansowo.
Natomiast już tak sobie rozmawialiśmy przed wejściem na antenę a propos Voice Dream’a. Pawle, ty ostatnio z Peach Centralem zacząłeś się jakoś bardziej bawić, prawda?
Tak, ja szczerze mówiąc byłem zdziwiony, bo ja dzisiaj otworzyłem po raz pierwszy tą nową wersję taką już po tych rewolucjach.
Ja byłem uczestnikiem testów beta tej wersji i ona wyglądała dużo gorzej, jakoś w ogóle nie umiałem się odnaleźć w tych kontrolkach, to wszystko w ogóle inaczej wyglądało.
A teraz mam wrażenie, że jak już jest to wersja oficjalna to wygląda bardziej jakoś jakby po staremu i nie jest to zła alternatywa.
To znaczy tam do kilku rzeczy trzeba się przyzwyczaić, pewnie trzeba sobie
poustawiać, ale aplikacja jest w języku polskim, jest suwak do przełączania
rozdziałów, jest jakieś przeskakiwanie po takich podrozdziałach czy po zdaniach
nawet, jest możliwość dostosowywania prędkości odtwarzania i to tak na szybko,
że są jakieś dwa presety, można ustawiać jakieś tam języki, głosy, to jeszcze przy
okazji czyta artykuły w ogóle z kanałów RSS, więc myślę, że warto tą aplikację
w stanie się zainteresować, zwłaszcza, że tutaj autor zrobił taki układ w naszą stronę
i dla użytkowników VoiceOver’a aplikacja jest za darmo.
Mnie trochę boli to, że to się w żaden sposób, a przynajmniej ja nie znalazłem sposobu,
bo Speech Central jest też w wersji na Windowsa.
Ja sobie nawet ją jakiś czas temu zainstalowałem, ale mnie trochę boli to,
że ja nie jestem w stanie tego w żaden sposób synchronizować ze sobą.
To znaczy, a to by było naprawdę coś, bo tego, żeby nie było w VoiceDream’ie,
też tego nie mam, no bo VoiceDream’a na Windowsa po prostu nie ma.
Tu użytkownicy Maca są na wygranej pozycji zdecydowanie, ale Speech Central też jest na Windowsa, tylko jakoś no tu synchronizacja niestety nie działa.
Jakoś chyba teoretycznie powinno dać się przez Pocketa, ale jak?
Ale to pewnie TLSS, pewnie Articula.
No właśnie, właśnie.
Też liczyłem na to, że ta nowa wersja taka rewolucyjna, która miała mieć nie wiadomo ile zmian wprowadzi tego typu synchronizację, no ale jak widać nie bardzo.
Także trzeba znowu poczekać.
A no, to poczekamy.
I teraz, teraz mieliśmy, znaczy dobra, powiemy o wtyczkach do NVIDIA.
To ja jeszcze zanim, Tomku, to jeden komentarz, bo tu się pojawił nam na YouTubie.
Użytkownik Świat Osób Niewidomych, tak się podpisuje.
Witam, mam pytanie dotyczące tej aplikacji, czyli pewnie tego bota, o którym tu mówiłeś Pawle, czy można w darmowej wersji przejść do ustawień, bo ja zainstalowałem tę aplikację i mam darmową wersję i nie ma czegoś takiego u mnie jak ustawienia.
Tak, ja to tłumaczyłem Patrykowi też, dopóki nie wykupimy subskrypcji ustawień nie ma.
Ustawienia są dopiero w wersji posubskrypcyjnej.
Wtedy przycisk subscriptions się zmienia w przycisk settings.
No i możemy zmieniać te różne parametry.
No to w takim razie przejdźmy do już newsów związanych z NVDA.
Jest kilka aktualizacji, albo kilka nowych wtyczek do NVDA.
To może zacznijmy od Pawła tutaj, skoro już jesteś przy głosie.
O kilka jest nowości zdaje się.
Jest jak najbardziej, mamy nowe wtyczki do NVDA i na przykład takim pierwszym dodatkiem jest Internet Usage Monitor, to jest wtyczka w języku hiszpańskim, którą stworzył użytkownik Rayo Alcantar i to jest wtyczka, która pozwala nam włączyć tryb, w którym NVDA będzie nam po prostu mierzył ile danych wysłaliśmy i odebraliśmy.
To może być zwłaszcza przydatne wtedy, kiedy jesteśmy na jakimś limitowanym połączeniu.
Nie wiem, zrobiliśmy sobie hotspota z telefonu, a na karcie SIM naszego operatora mamy dość ograniczone dane.
Ale po prostu jesteśmy ciekawi, ile nam danych pożera to, co aktualnie robimy.
Możemy taką wtyczkę zainstalować i wtedy używając skrótu klawiszowego
zdaje się NVIDIA ALT W
Włączamy tryb, w którym te dane są zliczane
i po wyłączeniu podana jest takie zbiorcza informacja, co zostało wyliczone.
Następnie mamy wtyczkę Windows of Process,
tu jest to dzieło chińskiej społeczności osób, znaczy użytkowników NVDA
i tu chodzi o to, abyśmy skrótami klawiszowymi,
znowu tym razem Control kropka i Control Shift kropka,
przełączali się odpowiednio albo między oknami danej aplikacji a w ramach jednego procesu,
czyli przykładowo mamy otwartych kilka okien Worda albo tam Reapera, Firefoxa itd.
i chcemy się przełączać między tylko oknami danej jednej aplikacji, wtedy CTRL kropka,
a jeżeli chcemy po prostu tak klasycznie jak ALT TAB to CTRL SHIFT kropka.
Więc tak jak najbardziej można robić.
No i trzecia wtyczka to ROP Enhancements
i to są różnego rodzaju ulepszenia na razie dla Eksploratora Windows i dla Outlooka.
W Eksploratorze Windows możemy, już Paulina mówiła o tym,
że chciała to osiągnąć, tutaj autorytyczki już to osiągnął,
uzyskać informacje o pustych folderach
i za pomocą skrótu klawiszowego,
zdaje się, że domyślnie jest to nvda-ctrl-f4,
możemy skopiować ścieżkę do danego miejsca,
w którym aktualnie jesteśmy, pliku bądź folderu.
No i w Outlooku, w Microsoft Outlooku również będzie informacja o pustym folderze
i też dodano skrót, o ile pamiętam, nvda.alt.jot,
który pozwala nam przeskoczyć do najbliższego w skrzynce odbiorczej
folderu zawierającego nieczytane wiadomości.
No i jako, że to są takie enhancements, to pewnie z czasem będzie się tego pojawiało więcej.
Natomiast na razie jest tyle.
No i to wszystko, jeśli chodzi o wtyczki, które znalazłem.
Więc Paulino, ty chyba chciałaś opowiedzieć o audio menedżerze nowej wersji, prawda?
Tak. No to tak, jeśli chodzi o audio menedżera, to wyszła nowa wersja, w której tak naprawdę jedyną zmianą, przynajmniej taką ogłoszoną w changelogu, jest to, że będzie komunikat dla użytkowników, którzy mają niezgodne, w sensie systemy nieobsługujące tą wtyczkę.
Natomiast nie ma zgodności z Naviman V2 2024.1, która z tego co wiem chyba jeszcze nie wyszła.
Aczkolwiek mam alfę, więc przetestowałam, że nie ma tej zgodności.
Natomiast jeżeli by ona nie wyszła, to ja podałam linka do Google Drive,
bo właśnie z tym moim GPT-sem udało mi się naprawić zgodność do tego audio managera.
Więc gdyby producent do momentu wypuszczenia nowej wersji NVDA nie poprawił tego, to właśnie ona jest, bo tak naprawdę problem był dość trywialny, mianowicie teraz trzeba podać ścieżkę bezwzględną, a niewzględną do biblioteki, która umożliwia obsługę tego audio managera.
A więc nie ma tam nic niesamowitego, zmieniłam tylko ten sposób podawania ścieżki do biblioteki i jest na Google Drive’ie do powrania.
Zaglądamy do tego, co do nas wysyłacie, a Sylwester wysłał nam krótką wiadomość głosową na Whatsappie.
Ja mam do was pytanie w sprawie programu Easy CD Audio Converter. Jak można klucz zdobyć, bo ja nie mam konta bankowego w komputerze, ani w telefonie. Czy w inny sposób można zdobyć klucz licencyjny?
No ja myślę, że ewentualnie, jeżeli nie konto bankowe, nie przelew bankowy, to zawsze można zapłacić tym tak zwanym przekazem pocztowym. Jeszcze może w ten sposób ja bym próbował.
To przechodzimy chyba do następnego newsa i tutaj chyba trzeba zaburzyć ten porządek o tyle, że no z reguły robimy tak, żeby nie była jedna osoba, ale no chyba teraz trzeba będzie tak zrobić, bo zostały nam drobne newsy i to warto pytać na koniec.
A jeszcze jest jeden test, jeszcze jest jeden news od Pauliny o, na temat okularów, które mają być polskim odpowiednikiem Envision Glasses.
To w sumie też jest trochę drobny news, bo powstaje sobie startup Safer Vision, który ma zaoferować takie okulary.
znaczy, ok, może to jest trochę na wyrost, co napisałam o tym, że to jest odpowiednik
Envision Glasses, bo nie do końca wiem, jak te okulary działają, w każdym razie
te polskie mają działać tak, że
tam wciskamy jakiś przycisk, mówimy czego szukamy na danym zdjęciu, zdjęcie jest
robione i mamy komunikat z głośnika, który mamy gdzieś tam koło ucha.
jeżeli te okulary są założone, gdzie to, co szukamy, jest, ale
rozmawiałam z
inicjatorem całego tego przedsięwzięcia i on też mówił, że chciałby,
żeby był jakiś taki wykrywacz przeszkód, które są w zasięgu wzroku i jakoś też by to
chciał udoskonalać.
Generalnie jest cała ta historia na początku
swojego rozwoju i też mówię o tym trochę dlatego, że
będę z takiego insiderskiego punktu widzenia to widzieć,
bo chcą mnie tam zatrudnić, więc mam nadzieję, że
pociągnę to w jak najlepszą stronę. Pierwsze spotkanie mamy jakieś takie
po świętach organizacyjne. No i będę wiedzieć,
jak to wszystko będzie wyglądało. Na razie jest zbieranie grantów, środków
i innych tego typu rzeczy, no ale cóż, pomysł na to jest całkiem sensowny,
aczkolwiek obawiam się nieco, ponieważ chcą stworzyć swój własny model
przetwarzania zdjęć i opisywania ich, więc nie wiem, na ile ten dataset
nie będzie zbyt biedny, żeby móc tego używać w takim produkcyjnym
zastosowaniu tak w życiu codziennym, no ale, ale tak sygnalizuje, że może coś
takiego się za jakiś czas na rynku pojawić.
No to zobaczymy. No i został jeszcze jeden, jak zwykle, pakiet newsów, czyli drobne
nowości i tutaj Paweł chyba głównie przygotował różne rzeczy.
Tak i pierwsze już zaczynam od Whatsappa i nie wiem czy zauważyliście, to Michał pewnie głównie by zauważył, bo ja na razie tą zmianę widzę jedynie w Whatsapp for Business i myślę, że to pewnie z czasem do zwykłego Whatsappa też trafi, czyli jak przeglądamy sobie jakąś rozmowę z kimś, no to wcześniej tak nie było, teraz jest, są nagłówki na konkretne dni, kiedy wiadomości otrzymaliśmy i tak na przykład jest nagłówek dzisiaj, wczoraj, konkretna data, tam 18 marca i tak dalej.
No i można dzięki temu skakać po nagłówkach na wersji iOS i przeskakiwać bardzo szybko między tymi dniami i się przesuwać.
Ja akurat korzystam przede wszystkim z wersji webowej Whatsapp Biznes, a właściwie po prostu web.whatsapp.com,
kiedy odtwarzam te wiadomości wysyłane przez naszych słuchaczy, bo tak jest mi zwyczajnie łatwiej.
natomiast u mnie też się tu trochę zmieniło,
mianowicie zmienił się sposób wyświetlania godziny,
bo zdaje się, że wcześniej był zegar 24-godzinny,
a teraz jest czas 12-godzinny,
więc mam 8 tam PM na przykład.
Ciekawe.
No, ale też ja zauważyłem jeszcze jedną rzecz,
że jeżeli mam społeczność na liście konwersacji
i tam są jakieś świadomości,
to głównie słowo społeczność, przed nazwą tejże.
Tak że coś takiego jeszcze udało mi się znaleźć.
Natomiast tutaj od słuchacza Dawida,
dostaliśmy informację, że była też aktualizacja programowania
w telefonie Blind Shell Classic i tam poprawki syntezy mowy.
Tak że jeżeli jakieś odnotowaliście, to dajcie znać, jak to teraz działa.
No a tymczasem taka mini rewolucja dla tłumaczy,
bo oto wrota piekieł zamarzły i staje się dostępny Trados, czyli najpopularniejsze oprogramowanie jakie tylko jest na rynku do tłumaczeń różnego rodzaju pisemnych,
więc różne agencje tłumaczeniowe, instytucje, które zatrudniają tłumaczy i tak dalej, korzystając z Trados Studio.
No i po wielu, wielu przebojach teraz ta oprogramowanie staje się dostępne.
Tutaj patrzę na komunikat prasowy i co my tu mamy?
Empowering Every Translator, czyli mamy deklarację dostępności.
My, firma ERWS z radością informujemy, że rozpoczynamy nową pionierską inicjatywę,
która jest w zgodzie z misją założycielską RWS oraz założeniami różnorodności i włączenia społecznego.
No bardzo ciekawe stwierdzenie, zważywszy na to, jak przez lata byliśmy ignorowani przez firmę, także no hej.
Poświęcamy się transformacji rynku czy przemysłu tłumaczeniowego,
czyniąc nasze flagowe oprogramowanie do tłumaczeń Trados Studio dostępne dla osób z dysfunkcją wzroku.
Jest tutaj cały oczywiście statement i cała deklaracja.
Informacja, że ostatnie 8-9 miesięcy spędzili nad przeróbką tego oprogramowania, tak by było dostępne.
No i teraz będą szukali testerów, więc można wypełnić sobie ankietę.
Oni będą selekcjonować właśnie, kto się dostanie do tej puli testerów, będą weryfikować, czy to rzeczywiście są osoby z dysfunkcją wzroku, ciekawe jak to będą robić, na podstawie jakichś dokumentów, czy jak.
Gdzieś tam chyba była jakaś informacja, że trzeba będzie dostarczyć właśnie dokument potwierdzający, że jesteśmy niewidomi, czyli pewnie orzeczenie w naszym przypadku.
Pewnie tak, no i okazuje się, że mają zatrudnioną ekspertkę od spraw dostępności dla osób z dysfunkcją wzroku, jest nią Anarita Debonis, jest to osoba z Włoch, nawet kojarzę, tłumaczyła zdaje się advance braille keyboarda na włoski, ja też ją kojarzę z pierwszego konkursu ILSC, czyli tego międzynarodowego konkursu piosenki osób z dysfunkcją wzroku,
bo ona też była jakąś ambasadorką tej inicjatywy i nawet przez jakieś tam znajomości prywatne udało jej się zorganizować to, że przesłanie jakieś swoje wiadomości dla uczestników nagrał sam Andrea Bocelli.
Także jest to osoba, która gdzieś tam też tłumaczeniami się zajmuje, więc mam nadzieję, że w swojej roli ma okazję się spełniać i życzę powodzenia.
No i jeżeli będziecie już mieli jakieś doświadczenia z Tradosem dostępnym,
to koniecznie dajcie znać, jak to wszystko wygląda,
no bo jest to bardzo cenione narzędzie w przemyśle,
no a w ten sposób otwierają się jakieś furtki i drogi do kolejnego, kto wie,
może jakiegoś zatrudnienia, więc może znowu warto rozglądać się
za jakimiś stażami i praktykami i różnymi zawodowymi możliwościami,
żeby tłumaczyć.
Także tutaj Trados się dostępny stał.
No i ostatnia informacja na szybko, WWDC, konferencja Apple, rusza 10 czerwca i przez cały ten tydzień do 14 będą trwały różnego rodzaju wykłady, ponoć nie tylko iOS 18, no jest duża szansa, że będzie trochę o AI, bo Apple gdzieś ostatnio w to wchodzi, jakieś tu są dyskusje z Googlem, czy by nie postawić Gemini na iPhone, a może jakieś GPT, a może coś jeszcze, a tu Apple jakieś swoje wypuszcza modele,
Także coś się święci i coś się gotuje, no jeszcze dwa miesiące ponad poczekamy i przekonamy się, cóż to takiego jest.
I to wszystko, jeśli chodzi o drobne newsy na ten tydzień.
Ale to nie wszystko, jeżeli chodzi o newsy w ogóle, bo teraz już przechodzimy do technikaliów i zaczynamy od nowego bloga o sztucznej inteligencji na Telegramie.
Tu zdaje się, że też jakaś autoreklama.
A no tak, tak dzisiaj wyszło, że się troszkę promuje, ale Michał mi pozwolił, więc w niniejszym to czynię.
Mianowicie odpaliłam jakieś kilka tygodni temu bloga o nazwie Sztucznie Inteligentna
na telegramie t.message sztucznieinteligentnarazempisane.
No i staram się opowiadać o sztucznej inteligencji w taki
błyskotliwy, trochę humorystyczny sposób.
Dla ludzi, którzy lubią mój styl pisania, no to
myślę, że doceniają, aczkolwiek też nie umie oceniać, więc zachęcam też do
wpadnięcia i do pozostawienia komentarza,
bo dopiero niedawno wpadłam na to, jak zrobić tę opcję, żeby można było zostawić komentarze.
No i cóż, opisuję tam jakieś moje zajawki, odkrycia
związane ze sztuczną inteligencją, ale też nie takie, na które
można się natknąć gdziekolwiek, w sensie to nie jest to, że wyjdzie nowy model
i od razu tam piszę, że hej, wyszedł nowy model, czegoś tam.
Tylko np. właśnie jak jest taka jakaś
ciekawa konsekwencja wyjścia tego nowego modelu, jak jest jakaś
taka zachęcająca do refleksji kwestia.
Na przykład, no, dzisiaj pisałam posta,
a raczej repostowałam i dodałam tam tylko swoją jakąś refleksję na ten temat,
o tym, jak Dawid Pieper zapytał uczata o to,
jak gdyby był nauczycielem chemii,
jak powinien przeprowadzić na lekcji eksperyment
i zachęcić uczniów do przeprowadzenia z nimi tego eksperymentu
na trawienie szkła przez tam fluor czegoś tam, przepraszam, już nie pamiętam czego dokładnie,
ale w każdym razie, Czad zalecił mu, aby kawałek szkła do eksperymentu wsadził do szklanej probówki,
do której wleje też ten kwas, więc miałam tam właśnie taką refleksję, że…
Myślę, że eksperyment byłby bardzo spektakularny.
Tak, wybuchowo i wystrzałowo by było.
Natomiast, Paulino, bardziej ciekawe, przynajmniej mnie gdzieś tam to zaciekawiło,
to o czym ty pisałaś nieco wcześniej, mianowicie o testach inteligencji,
które można by było dostosować dla potrzeb osób niewidomych,
gdyby sobie ktoś chciał IQ zbadać. To jest w ogóle ciekawy temat.
Tak, to też była taka moja troszkę większa zajawka.
Ponieważ jest sobie newsletter, który się nazywa Maximum Truth
i tam pan napisał artykuł o tym, że
kiedy testuje się IQ, modeli sztucznej inteligencji,
to najlepiej, jeżeli wyśle się
opisy tego, jakie są
zdjęcia w tych pytaniach na test IQ,
dlatego że logika
a logika nie może zadziałać najlepiej, kiedy wysyłane są zdjęcia,
bo ten moduł opisywania zdjęć jest nieco nieprecyzyjny.
Więc jeżeli chcemy zbadać dokładnie, na co stać ten model,
no to jeżeli chcemy zbadać moduł rozpoznawania zdjęć, to spoko,
ale jeżeli chcemy zbadać jego logikę, to właśnie powinniśmy opisać te zdjęcia.
I jak czytałam ten post,
Nawet ten pan, który pisał, porównał to do testowania osób niewidomych
i podał przykłady pytań, które są wykorzystywane przez niego w tych testach.
No i jak na sobie i na kilku innych osóbach niewidomych przetestowałam,
to są to pytania, które mogłyby dla nas być jak najbardziej dostępne
i takie wyczerpujące pod kątem opisów zdjęć.
Nawet wystarkowałam maila do tego pana, żeby napisać do niego
i żeby dał mi te…
cały ten test, bo całą taką norweską macierz
przerobił na te opisy.
Z tym, że…
miałam do niego napisać, ale jakoś tak do tej pory wyszło,
że tego nie zrobiłam, ale w sumie dobrze, że mi przypomniałeś, Michale, to zrobię w końcu.
No i tak naprawdę on podał tego maila w komentarzu, w odpowiedzi do innej osoby,
która skomentowała, że fajnie by było stworzyć
aktualny test IQ w ten sposób i przerobić wszystkie macierze, bo tam jest
jest kilka podetapów tego testu i on chyba, z tego co zrozumiałam, wziął jeden.
To znaczy, ja nie wiem dokładnie jak ten test IQ wygląda, bo
też nie udało mi się dotrzeć do żadnego
dostępnego testu, który byłby miarodajny i taki, mówiąc potocznie, legitny.
Bo jedyne takie, które są dostępne w internecie, to są jakieś takie
zagadki logiczne, które się zadaje małym dzieciom, a potem i tak trzeba wysyłać
się z SMS-a, żeby dowiedzieć jakieś matIQ
abstrahując od tego, że to jest totalnie niezgodne z rzeczywistością.
Natomiast
myślę, że taki test byłby jak najbardziej
czymś
ciekawym i
miałby jakieś tam…
miałby jakąś miarotajność.
No i tak naprawdę też pisałam o tym, że wyłania się z tego kilka pytań
badawczych, bo można byłoby testować te modele na to, czy jeżeli zrobimy ten test
nie po angielsku, ale w jakimś innym języku, to czy ta logika się zmniejsza.
Moglibyśmy testować osoby widzące, jak reagują na takie opisowe testy IQ
zamiast tych ze zdjęciami.
Moglibyśmy testować masowe liczby osób niewidomych, żeby sprawdzić, czy IQ osób
niewidomych różni się w jakimś, w jakimś istotnie statystycznym zakresie od średniej IQ społeczeństwa.
Ja mam tylko taką jedną wątpliwość i zastanawiam się bardzo nad tym, czy my tak naprawdę jesteśmy w stanie to porównać jedno z drugim.
Czy jeżeli będziemy testować jakby tę naszą inteligencję poprzez opisy
jakichś tam powiedzmy różnych rzeczy,
to czy to jest, aby na pewno to samo, co jakieś zdjęcia?
No ale tak naprawdę jakbyś sobie przeczytał,
bo tam też podlinkowałam ten artykuł, żeby nie było,
to te opisy no tak naprawdę są tym, co na tych zdjęciach jest.
nie wiem, masz tabelkę z, nie wiem, masz tam jakieś, nie wiem, kwadratowe obramowanie,
kółko, gwiazdkę i trójkąt, a tam w drugim wierszu masz okrągłe obramowanie,
trójkąt, kółko i w ostatnim masz powiedzieć, co będzie na przykład.
Wiesz, dlatego ja się po prostu zastanawiam, czy jest to, czy można porównać jedno z drugim.
Ja nie mówię, że nie, tak? Po prostu rzucam pytanie.
Znaczy, no myślę, że żeby móc na nie odpowiedzieć, trzeba byłoby przeglądnąć cały ten test.
I trzeba byłoby przeglądnąć go z osobą widzącą, żeby zapytać ją, czy to, jak ja sobie to wyobrażam, to jest dobrze.
Wiesz, tylko problem jest też taki…
Tylko, że tak naprawdę to, że ja sobie coś wyobrażam tak, to nie znaczy, że ktoś inny nie wyobraża sobie inaczej.
I problem jest też taki, że różne osoby potrafią różnie opisywać różne rzeczy.
Ja tu się trochę obawiam tego odchylenia takiego interpretacyjnego być może czasami.
Ale wydaje mi się, że to nie jest kwestia interpretacji.
To jest tak naprawdę, no po prostu kwestia precyzji.
Nie wydaje mi się, że tego nie można porównywać,
no bo jeżeli byśmy tak szli, no to nie moglibyśmy wykonać żadnych badań, nigdy.
Bo na przykład, nie wiem, ktoś by mógł powiedzieć, że w badaniach jakościowych nie powinno się wrzucać do jednego wora jakichś tam osób.
No ale jeżeli nie zrobimy grup do analizy, no to nie zrobimy żadnej analizy.
Więc no, pewne uproszczenia zawsze trzeba przyjąć.
Ja się tylko też jeszcze zastanawiam nad jedną rzeczą, czy nie ma innych sposobów na badanie sztucznej, żywej, naszej, własnej inteligencji,
i czy dla osób niewidomych rzeczywiście biarą na badanie tej inteligencji, to powinny być jakieś opisy rysunków, czy tego w ogóle nie powinno się przeprowadzać w jakiś inny sposób?
Może faktycznie, z tym, że wtedy bylibyśmy z kolei w innej pułapce, mianowicie takiej, na ile dałoby się porównać łatwość, też trudność i wyniki, więc zawsze będzie jakaś niedoskonałość.
Dlatego właśnie to mnie bardzo zaciekawiło, bo jak ja zacząłem czytać właśnie te informacje o badaniu inteligencji, nie, niesztucznej, naszej, własnej, i mierzenie tego w przypadku osób niewidomych, to mi się pojawiło naprawdę bardzo dużo pytań.
I to nie to, że ja mam jakieś tam, powiedzmy, sceptyczne do tego podejście,
co mi się pojawiło naprawdę mnóstwo pytań, na które ja osobiście nie znam odpowiedzi,
ale myślę, że fajnie by było, żeby się ktoś rzeczywiście pochylił nad tematem.
I takie właśnie rozkminy tam wjeżdżają na ten kanał, więc wszystkich chętnych zapraszam,
te kropka message sztucznie inteligentna.
Zapraszamy, a tymczasem telefon od Bartka odbieramy. Dobry wieczór, Bartku.
No witam was w tym tygodniu przedświątecznym. Jak co tydzień lub prawie, że co tydzień dzwonię do was tym razem z aktualizacjami z zeszłego tygodnia.
Zacznę od iPlusa. Mogę powiedzieć, że ta operacja skończyła się sukcesem, bo się okazało, że jednak nie trzeba było rejestrować nowego konta,
bo moja aplikacja bynajmniej załapała i logowanie starymi danymi zakończyło się powodzeniem.
I ciekawostka dla tych, którzy mają iPhone jeszcze z Touch ID, również można tą metodą się logować.
Zapewne Face ID też będzie to dopiero jak trzynastkę dostanę z powrotem,
będę mógł to ewentualnie sprawdzić, ale bynajmniej w tej kwestii wszystko udało się zakończyć się powodzeniem.
To znaczy tak, tu generalnie chodzi o biometrię po prostu i w zależności od tego, jaki mechanizm.
Tak, to akurat masz rację, Michał, więc będzie można pewnie Face ID.
Zastanawiam się, jeżeli na przykład ktoś Face ID nie ma, to wtedy chyba pinem, czy samym hasłem będzie logowanie,
ale to, że tak powiem sprawdzę już, kiedy sprzęt dostanę z powrotem, bo a propos tej mojej trzynastki mogę powiedzieć,
że w końcu poniekąd dopiąłem swego, bo tak jak wam w zeszłym tygodniu mówiłem,
ponownie tego mojego iPhona oddałem na tą gwarancję,
co były problemy z wykonywaniem tych gestów.
No i w końcu technicy z Apple’a przekonali się, że jednak tutaj nie ściemniałem
i sami się zorientowali, że rzeczywiście te problemy występują.
A co się okazało z tego, co dostałem informację od technika z Apple’a,
że nawet te gesty, w ogóle ekran może nie łapał na wszystko,
co, że tak powiem, było wykonywane i nawet bez ładowarki, co się okazało.
I teraz sam się zastanawiam, co mogło być tego powodem,
kiedy wykonywałem diagnostykę z technikiem,
wykazało, że z ekranem wszystko jest w porządku,
więc w końcu, że tak powiem, miejmy nadzieję,
że sprawa zostanie doprowadzona do końca.
To tak splotłem tylko w ten temat, a propos biometrii, prawda?
Trzecia sprawa, z którą do was dzwonię, którą zresztą poruszałem w zeszłym tygodniu,
to jest to logowanie do Messengera.
Co, że tak powiem, zalecaliście mi usunąć Facebook i Messenger,
bo mówiłem, że na iPhone’ie 8 Messenger jest ze wszystkimi konwersacjami,
które zostały zachowane, a na iPhone’ie 8 Plus była pusta plansza w zakładce czaty
i w zakładce osoby nie było żadnych osób, które są aktualnie, że tak powiem, aktywne.
Zrobiłem tak, jak zalecaliście, czyli odinstalowałem Facebooka i Messengera, następnie pobrałem ponownie te aplikacje
i w tej samej kolejności, jak zalecaliście, zalogowałem się do Facebooka, ale o dziwne, zapamiętał ostatnie logowanie.
No to ciekawe bardzo.
Bo była w nagłówku podana nazwa tego użytkownika, który był zalogowany przed usunięciem aplikacji.
Ale usunąłeś razem z danymi?
Tak, nie robiłem odinstaluj aplikację, tylko po prostu usuń aplikację.
Zarówno to samo z Messenger, zresztą szczerze powiedziawszy sam nie preferuję odinstalowywania aplikacji, więc wolę je usuwać.
Ze wszystkimi danymi.
I szczerze powiedziawszy już mi się tak naprawdę pomysły kończą, ale przed chwilą wpadł mi jeszcze do głowy jeden pomysł, tylko chciałbym to z wami skonsultować, czy w Facebooku, bynajmniej w aplikacji na iOS, istnieje możliwość sprawdzenia czym się logowaliśmy, czy to był adres e-mail, czy ewentualnie numer telefonu?
Oj, nie wiem, czy jest taka możliwość.
Bo tak naprawdę jedyne rozwiązanie, które jeszcze w tym czasie przyszło mi do głowy, to jest takie, że de facto może być to samo imię i nazwisko,
ale tak naprawdę mogą być dwa różne konta i dlatego na tym iPhone 8 Plus w Messengerze po prostu nie widać żadnych czatów, ani osób tym bardziej aktywnych.
No chyba, że, ale to też powinno być…
Bo nie wiem, czy można założyć dwa konta na ten sam numer telefonu.
Nie, nie.
Nie da się tego tak zrobić.
A nawet jeżeli, że tak powiem, zakładaliśmy…
Jeszcze jedyne, co Bartku mi przychodzi do głowy,
bo teraz Facebook ma coś takiego jak profile.
Oni to jakoś wdrażają i pozwalają ci jakby być na Facebooku na zasadzie kilku tożsamości, w sensie ty jako tożsamość główna i pozostałe jeszcze jakieś, które sobie możesz utworzyć.
Może o to tu chodzi, może coś tu jest gdzieś zmienione, natomiast ja się tym nigdy nie bawiłem, nie mam potrzeby tworzenia swoich alter ego, więc…
Ale tak naprawdę to się sprawdza w ustawieniach wtedy w aplikacji?
Ja bym tam przejrzał to, przejrzał ustawienia profilu, jak to tam wygląda, bo może coś tam zostało zmienione.
Ja to widziałem raz i jakby nie zajmowałem się tym tematem, bo najzwyczajniej w świecie nie było mi to do niczego potrzebne.
Natomiast powiem jedynie tyle, że dziś aplikacja na iOS-a, właśnie Messenger, poprosiła mnie o nadanie PIN-u do wiadomości.
Też to właśnie zauważyłem podczas konfigurowania tej świeżej aplikacji, tylko że ja dzisiaj Messengera u siebie otwierałem, de facto ja mam skonfigurowanego oczywiście i u mnie nie woło, żeby sobie PIN utworzyć.
Bo to wiesz co, mam wrażenie, że jest jakoś tak stopniowo wypychana ta funkcja, bo o tym, że niektórzy ją dostali, to słyszałem już parę ładnych tygodni temu, a do mnie dopiero dziś dotarła.
I jeszcze takie moje pytanie a propos M-Obywatela, bo zauważyłem ostatnio właśnie z powodu chwilowej zmiany iPhona, że po przeniesieniu danych z chmury, gdy próbowaliśmy, próbowałem się zalogować do M-Obywatela hasłem i on jakby uznawał, że aplikacja posiada zarejestrowane konto,
ale nie może się do niej dostać za pomocą hasła.
I dopiero kiedy usunąłem i pobrałem aplikację na nowo,
to dopiero udało mi się to konto zarejestrować.
De facto dopiero dzisiaj się zorientowałem, że…
No dzisiaj, chociaż nie, de facto ja robiłem swoją chyba…
No, mniejsze z tym, na dniach.
Zorientowałem się, że aplikacja mObywatel może być zarejestrowana tylko i wyłącznie na jednym urządzeniu.
To prawda, tak?
Zdaje się, że tak.
No właśnie, bo pojawił mi się komunikat, że…
Kiedyś mówiliśmy o tym w audycji z Wojtkiem Durskim, który miał taki problem z Androidem i iOS-em, to tak, tak, tak, tak właśnie było.
Okej, bo dzisiaj właśnie konfigurując te aplikacje znajomemu, zresztą temu samemu od Messengera,
to kliknąłem w aplikacji tej, gdzie jeszcze właśnie, że tak powiem, dosłownie ta aplikacja jakby była zarejestrowana,
ale tym hasłem nie można było się zalogować, kliknąłem nie pamiętam hasła
i tam na dole jest przycisk aktywuj na nową aplikację, coś takiego.
W to próbowałem wejść tylko, że dalej mi żadnych kroków nie chciał podjąć.
Ja generalnie mam takie wrażenie, że te wszystkie aplikacje,
które są tak jakoś mocniej zabezpieczone, jak właśnie te aplikacje bankowe,
czy aplikacje pokroju M-Obywatela to najbezpieczniej, jeżeli
na przykład właśnie odzyskujemy naszą kopię danych z jakiejś chmury
albo coś robimy z tym telefonem, że musimy przywrócić później dane,
to je chyba najbezpieczniej po prostu usunąć, zainstalować na nowo,
bo to się czasem lubi nie wczytać.
Bo tak naprawdę jej wyrejestrować się chyba właśnie nie da, nie?
Oj, wiesz co, nie wiem. Ja po prostu resetowałem hasło.
Bo w ustawieniach mieliśmy tylko wyloguj.
No wylogować, no ale wyloguj to jest tylko wyloguj jednorazowo, tak?
No w tym momencie, tak. Wyloguj, a za chwilę i tak będziesz mógł się zalogować.
No właśnie, bo to nie jest w rejestrowaniu aplikacji, więc jakby zasadniczo to najlepiej przed powrotem, w moim przypadku, do aktualnego sprzętu, najlepiej ją usunąć i zrobić wtedy backup, jeżeli będę chciał przywrócić z backupa i wtedy już ściągnąć dane bezpośrednio z chmury, bez tej aplikacji.
I wtedy pobrać tę aplikację, bo tak naprawdę nie widzimy tutaj innego rozwiązania.
No ja nie widzę.
No dobrze.
No dobrze.
No to dzisiaj wyjątkowo krótko
już nie zawracam wam głowy
i zdrowych, spokojnych świąt
życzę, żeby
w gronie rodzinnym i radośnie
zostały spędzone.
Dziękujemy i wzajemnie.
Dziękuję bardzo.
I do usłyszenia już po świętach.
Pa, pa.
No i teraz wychodzisz odniósł ode mnie.
Bo od czerwca tego roku zmieniają się przepisy i jest szansa, że będzie troszkę biedniejsza następność w związku z tym kierowców Ubera, Polta i innych tego typu przewoźników.
A rzecz polega na tym, że od czerwca tego roku kierowcy pracujący w branży przewozu osób muszą posiadać polskie prawo jazdy.
No i problem polega na tym, że do tej pory trzeba było mieć prawo jazdy, ale mieć prawo jazdy kraju, no zdaje się, że jakiegokolwiek.
No i teraz będzie ta zmiana, że musi być to prawo jazdy polskie. No i nie wszyscy obcokrajowcy takim prawem jazdy na razie dysponują.
O tym było, zdaje się, wiadomo od jakiegoś czasu, że coś takiego się pojawi, no i nie wiem, czy oni już się do tego przygotowują, czy co jeszcze w jakiś sposób, bo u nas, na przykład, coraz częściej spotykam polskich kierowców niż zagranicznych.
Natomiast to jest jakby rzecz pierwsza, rzecz druga jest taka, że z tego co gdzieś tam jest napisane, to w ogóle o polskie prawo jazdy można się starać dopiero po półrocznym pobycie w Polsce.
Więc nie bardzo jest możliwa taka sytuacja, teoretycznie przynajmniej, że ktoś przyjeżdża do nas, nie zna języka i od razu na tym Uberze czy gdziekolwiek może pracować.
bo musi mieć to polskie prawo jazdy. Także, no, jest szansa, że troszeczkę tutaj będzie lepiej, jeżeli chodzi o znajomość języka.
No, możliwe, że też będzie bezpieczniej, no, bo podobno te, no, zwłaszcza w tych różnych, bardziej wschodnich krajach,
te zasady są, no, powiedzmy, dość różne, jeżeli chodzi o prawo jazdy. No i jest szansa, że będzie bezpieczniej.
no nie mniej, z drugiej strony, no właśnie nie każdy kierowca takim prawem jazdy dysponuje,
no i, no i w związku z tym jest też taka możliwość, że tych kierowców będzie zwyczajnie mniej
i trudniej będzie zamówić takiego Ubera albo inną usługę tego typu.
A teraz, niósł od Pauliny, chociaż w sumie, no ja też się bawiłem tym, tym czymś,
bo weszła nowa wersja tego całego Chirp, który jest bardziej znany jako po prostu Suno.
Suno to jest firma, która produkuje, znaczy, która stworzyła ten model,
chodzi o model tworzenia muzyki, no ale więcej o tym Paulina,
ale podejrzewam, że ja też się będę wcinał, bo jak mówiłem, bawiliśmy się tym oboje.
To prawda, zabawa była przednia, natomiast jeśli chodzi o szczegóły,
No to, cóż, mamy właśnie ten V3.
Alfa tego już była wcześniej dostępna dla osób,
które mają plan kupiony Premier albo Pro.
I podobno ona była nieco lepsza niż ta V3, która jest teraz,
dlatego jest też ankieta na Discordzie, którą wersję mają wykorzystywać.
Natomiast, cóż, no…
Przykładem tego co Chirp może wygenerować w tej nowej wersji
zasknęliście się jeżeli słyszeliście tą nową formatkę, którą zrobiłam
odnośnie kontaktu na samym początku audycji
no i tak, no
dużo lepiej jeśli chodzi o wokale jest, bo V2
potrafiła jakoś tak głupio fałszować, jakoś
tworzyć jakieś takie też przebiegi harmoniczne, które były nieco takie bez sensu, natomiast tutaj wydaje mi się, że…
W ogóle potrafiła tworzyć coś, co nie jest piosenką.
Tak, natomiast tutaj wydaje mi się, że już te przebiegi on rozumie
i że jest pewne rozumienie tekstu, bo zrobiłam taki eksperyment, że
prosiłam o kołysankę, a w tekście dałam jakiś zwyczajny udżiczny rap pierwszy z brzegu
i zrobiło mi faktycznie, jakby z taką kołysankową warstwą
melodyczną, po prostu beat i zaczęło mi rapować.
Natomiast jak wymusiłam Female Singer, no to w pierwszej wersji była taka zwyczajna
kołysanka faktycznie, a w drugiej jakaś taka osoba na mój gust niebinarna zaczęła rapować.
No i cóż, mamy teraz, w sensie nie wiem, może to już wcześniej było
bo wcześniej po prostu generowałam sobie przez Discorda i nie chciałam się przez stronę,
ale jest możliwość kontynuowania od konkretnej czasówki,
czyli wpisujemy sekundę, od której ma iść kontynuacja i faktycznie to działa.
Tak i to jest fajne, dlatego że bywa, u mnie przynajmniej się zdarzało,
że na przykład on na końcu zrobił wyciszenie
i kontynuacja to w ogóle była kontynuacja zupełnie czego innego.
Tak, no a teraz jak już marzymy sobie, bo ja też myślałam, że to będzie jakoś tak głupio, że będzie zaznaczanie tam jakieś takie myszką, coś tam, coś tam, ale jest bardzo ładnie po prostu pole edycji z czasówką, więc sprawdzamy sobie jakimś tam innym odtwarzyczem VLC czy fubarem czy innym czymś, o z której sekundy chcemy, wpisujemy sobie w pole edycji i elegancko, trzeba chyba przepisać styl muzyki, jeżeli chcemy żeby to było tak jak było.
Tak, bo teoretycznie można inny wpisać i on, no…
Jest też opcja remix, ale nie bawiłam się tym.
Podejrzewam, że to jest coś w stylu takim, że
ta sama piosenka i ten sam wokal i ta sama melodia,
ale innym stylem zrobione, który możemy sobie zdefiniować,
no ale to jest jeszcze pole do eksploracji, bo nie testowałam.
No i cóż, no i chyba tyle ode mnie, jeśli o to chodzi.
Ja mam kilka przykładów ewentualnie jeszcze, które gdzieś tam wygenerowałem,
bo ja bardzo lubię się tym bawić w tworzenie instrumentalnych różnych rzeczy, jakoś lubię.
W każdym razie instrumentalne, no wiadomo, nie ma tutaj problemów z problemami autorskimi,
więc mogę na przykład pokazać takiego, to ma myślenie polski folk.
I powiedzmy polski to jest tak nie do końca, ale z drugiej strony kiedyś jak się tworzyło polski folk, to był to w ogóle jakiś folk jakikolwiek, irlandzki, to już jest przynajmniej nasz region.
jakieś, nie wiem, być może trochę węgierskie, ale toż jest bliżej niż to co było otworzone w wersji V1.
Próbowałem stworzyć rok progresywny lat 70, bo on jest taki dość rozbudowany, jakkolwiek coś takiego to może nie jest lat 70.
Ale ma taki lekki…
No to jest takie troszeczkę bardziej, że nie ambitne, jak mi się wydaje.
I V2 miał w ogóle problem z bardziej takimi alternatywnymi różnymi gatunkami muzycznymi, jakaś na przykład postanowa, kompletnie tego nie ogarniał.
Teraz ogarnia, nie mam nic takiego w postanowie, co mógłbym zaprezentować, bo to ze względu na prawa.
Natomiast, przynajmniej nie zawsze, ale często to brzmi jak jakaś postanowa.
Jak próbowałem tworzyć jazz na V1, no to wychodziło jakieś w ogóle nie wiadomo co.
Tutaj spróbowałem chyba gypsy jazz, no to rzeczywiście…
Oczywiście.
O kurcze.
Oczywiście.
I tych gatunków na pewno jest więcej, które on rozumie i które robi, no może nie to, że jakoś super poprawnie, powiedzmy tutaj jest takie mimo wszystko,
ale okej, w miarę nawet coś zrobił w temacie, że tak powiem, natomiast na pewno jest to lepsze, natomiast czy to jest rewolucja, to jest raczej ewolucja, tak mi się miło wszystko wydaje,
No ale na pewno jest lepiej i właśnie więcej rozumie różnych rzeczy, jest w stanie bardziej troszeczkę, no lepsze wychodzą te rzeczy czasami, choć wydaje mi się, że w takich gatunkach najbardziej popularnych, no to chyba jest jak było, tak mi się przynajmniej wydaje pod względem muzycznym.
Niektórzy narzekają, że wokale są bardziej takie zautotunowane, że tak powiem i rzeczywiście dość często tam też pojawia się jakiś taki autotune, jakiś niby vocoder, to jest trochę takie sztuczne momentami. V2 niby też było, ale chyba…
Z drugiej strony V2 potrafił fałszować.
Tak, potrafił fałszować, tu nie ma tego fałszu, ale też za bardzo chyba nie ma fałszu, mam takie wrażenie, że jakoś za bardzo się tym przejął, że tam były problemy, także, no ale zobaczymy, co będzie dalej, być może kiedyś wyjdzie jakiś V4, V5, a może nie, nie wiadomo.
W każdym razie największa różnica była chyba między V1 a V2, V2 weszło stereo, no i w ogóle te gatunki jakieś takie zrobiły się bardziej, by także normalne, no i zwiększała się długość, bo w V2 to była minuta 20, a teraz są dwie minuty w standardzie, także no też lepiej.
Teraz nowy news ode mnie, czyli dodatkowa weryfikacja w płatnościach portfelem Google.
To znaczy, chodzi o to, że do tej pory jak się płaciło telefonem przez Google na przykład w sklepie,
no to jeżeli się miał odblokowany ekran, no to się przesuwało telefon do terminala,
no odbywała się płatność i już.
Natomiast teraz, co mnie cieszy, będzie można zrobić, o ile już nie ma czegoś takiego, bo podobno to już powoli zaczyna wchodzić, że domyślnie przynajmniej będzie tak, że trzeba będzie jeszcze się zautoryzować, czyli przykładamy telefon do terminala,
Telefon prosi nas o weryfikację, no pinem albo tam odciskiem palca, twarzą, no co tam kto ma i dopiero po tej weryfikacji będzie dokonana płatność.
Podobno będzie można to wyłączyć, jeżeli ktoś tego nie będzie chciał, ale domyślnie ma to być włączone, więc no po pierwsze uwaga, po drugie, no chciałoby się powiedzieć w końcu,
bo zdaje się, że iOS ma coś takiego, domyślnie, znaczy nie ma takiej sytuacji w iOS, że sobie przełożymy telefon do czytnika i nie wiem, i nagle nam się ściągnie płatność, a my w sumie nic o tym nie wiemy.
Tak, tam nie jest możliwe zrobienie czegoś takiego.
W Androidzie coś takiego możliwe jest, więc to jest trochę niebezpieczne, więc w końcu po latach Google również tutaj dołączyło i zrobiło to tak jak, moim zdaniem, tak jak się powinno robić.
No i ostatni news, który mamy wpisany w naszych notatkach dotyczy telefonów, bo najmniejsze telefony na świecie z Androidem 13 to…
Unihertz Jelly Star. Wyszło to chyba w miarę kilka dni temu,
a przynajmniej kilka dni temu o tym słyszałam.
W każdym razie u nas na Allegro za jakieś 1200 da się to kupić.
Tam za jakieś 209 dolarów w cenie wyprzedażowym
chyba to widziałam na stronie producenta. Natomiast co, no 8 giga RAMu, 256 giga dysku,
jakiś tam Mediatek Helio, chyba nie jakiś taki najgorszy. I ekran 3 cale, więc jak ktoś
lubi małe telefony, kurde, no kusi żeby kupić. Bojack jest, nowe Android, no właśnie 13.
Nie wiem jak ze wsparciem i nie wiem jak z wykorzystaniem na rynku polskim, bo też
Tak sobie tylko popatrzyłam i tak to wrzuciłam jako sygnałek,
bardziej niż jako jakiś niesamowity niósł, ale jednak jest to ciekawe,
że nadal takie telefony powstają i że jest no to rynek.
Tymczasem mamy jeszcze wiadomość na Whatsappie, która do nas przyszła.
Rafał nagrał kilka słów.
Dobry wieczór.
Znacie aplikacje do próbki wideo, a dokładnie mnie interesuje taka funkcja w tej aplikacji, żeby można było usunąć tło z wideo, np. hałas ludzi czy coś w tym stylu. Do usłyszenia.
Jak rozumiem, tu chodzi o audio, tylko że ma zostać obrazek też, pewnie.
To znaczy nie wiem, tak, ripper, no tylko, że ripper sam siebie tła nie usunie, jako takiego.
No nie, tu trzeba było użyć, trzeba byłoby użyć jakiegoś efektu VST.
Zastanawiam się, wiesz co, jeszcze zanim powiesz, zastanawiam się, czy ten filtr od Adobe’ego nie dałby rady.
On zdaje się, że też potrafi obrabiać pliki wideo, tylko ja tego nigdy nie próbowałem robić
i nie wiem, co on wypluje jako wynik.
Czy to będzie samo audio wtedy, a on tylko potrafi odczytywać materiały wideo,
czy też potrafi sobie to jakoś razem zrenderować.
Wydaje mi się, że nadal będzie audio, ale niczego sobie nie dam uciąć.
No to Rafale, jak możesz to sprawdzić,
zdaje się, że to jest podcast.adobe.com,
tam jest to narzędzie i możesz sobie za darmo materiał do godziny,
Chyba.
Czy 30 minut?
Tak. Natomiast jeszcze…
Nie wiem, czy nie 30 minut, ale na dzień 3 godziny.
Ale też raz, że się mogą podzmieniać, a dwa, że…
Chyba godzinę, a na dzień 3…
Nie, może być na dzień 3.
No nic, trzeba to sprawdzić.
No nieważne, to jest do sprawdzenia.
Natomiast jest Nvidia Broadcast, to się chyba tak nazywa.
To już kilka lat ten program ma.
On jest raczej dla użytkowników kart graficznych NVIDII, nie wszystkich co prawda, oni teoretycznie mówią, że to jest tylko do RTX-ów, aczkolwiek ja pamiętam, że uruchomiłem to na starym stacjonarnym komputerze, na którym był GTX 750 chyba, więc karta naprawdę dośleciwa z 2014 roku i też to pociągnęło.
I był właśnie Nvidia Broadcast, to było do samego Audi, ale zdaje się, że oni też zrobili jakiś program, który pozwala na załadowanie chyba też wideo i tam różne rzeczy zrobienie z tym wideo, m.in. chyba wycięcie również tła z głosu.
No jest kilka wtyczek oczywiście VST, natomiast nie znam takiej, która byłaby rzeczywiście darmowa, no ewentualnie co by można zrobić i to jakoś działa, tylko że to znowu działa raczej na plikach audio, no to różne strony typu na przykład audiostrip, chyba kropka, teraz nie będę tam, co.uk chyba, tam jest ten cały demux, czyli coś co oddziela wokal, bas, bębny i tak dalej.
No i teoretycznie można by oddzielić wokal od reszty, no i zostanie sam wokal, a tło teoretycznie powinno zostać oddzielone i to nawet czasem działa, tylko to się troszkę czeka, tam 10 minut czy nie pamiętam ile.
Natomiast jest szansa, że rzeczywiście któraś z tego typu stron mogłaby również działać z plikami wideo, natomiast która nie wiem, ale być może są takie rzeczy właśnie.
raczej bym szukał po stronach internetowych bardziej niż programach.
Ewentualnie można by było spróbować w ogóle poszukać z jednej strony właśnie tego,
o czym Ty Tomku mówisz, a jeżeli to nie zdałoby egzaminu, być może pomogłyby trzy serwisy.
Przede wszystkim jakiś serwis, który usunie audio z materiału wideo,
Potem jakiś, potem sobie przekon, albo wcześniej nawet, tak naprawdę przekonwertować sobie ten plik wideo na audio,
jeżeli oczywiście to narzędzie, o którym wspomniałeś, nie wspierałoby formatów wideo.
I wtedy sobie, kiedy już dostaniemy taki plik bez tej ścieżki audio i kiedy ją sobie pozbędziemy się gdzieś tam online tego tła,
to poszukać jeszcze narzędzia, które pozwoli na synchronizację materiału audio z materiałem wideo,
co też wydaje mi się, że powinno dać się za pomocą czegoś online’owego zrobić.
Możliwe.
Więc to są tak, ale tu się w pełni zgadzam, to są ewidentnie jakieś rzeczy, które można by było zrobić online
i które pewnie za pomocą czegoś się dano, tylko to jest właśnie coś, gdzieś, jakoś.
Bo takich rzeczy się po prostu szuka w razie potrzeby, taka jest, no, prawda, niestety.
Tymczasem odbieramy telefon, jest z nami Wojtek, witaj.
Cześć, udało się na czas odciszyć.
Takich kilka spraw, przede wszystkim gratulacje dla Pauliny
za powrót w dobrym stylu do audycji,
za bloga i za pracę.
I mam nadzieję, że otrzymasz wynagrodzenie adekwatne do Twoich bardzo wysokich i specjalistycznych kompetencji.
Czego wszystkim oczywiście życzę, nie tylko Tobie.
Mam też drugą robotę, więc na pewno na spokojnie się utrzymam.
Nie, to jest jasne, natomiast chodzi o to, żeby to wynagrodzenie, w naszym przypadku niestety często tak jest,
że one jest poniżej, albo nie wykorzystują pracodawcy naszych kompetencji,
albo płacą nam poniżej.
Także ważne, żeby to wynagrodzenie odpowiadało tym kompetencjom, które mamy.
To nie tylko chodzi o Ciebie oczywiście, ale ponieważ Ty teraz dostajesz pracę,
to jest dobra okazja, żeby tego życzyć wszystkim, ale Tobie przede wszystkim.
To jest pierwsza sprawa.
Druga sprawa, tak jak wspomnieliście o tym Tradosie, myślę, że Paweł tu oddał to, co myślę na ten temat i ja, czyli gdzie byliście przez ostatnie 10-15 lat?
A teraz wycieracie sobie gębę waszą misją.
Dziebiliście, kiedy ja szukałem pracy i moim jedynym narzędziem pracy, który mogłem podjąć był Trados i przez to, że on dostępny nie był, musiałem zmienić ścieżkę kariery poniekąd, więc ja to bardziej kontrowersyjnie ujmę.
No właśnie, ale to chyba nie tylko oni, bo też MemoQ okazuje się, że ma jakieś tam dostępnościowe plany, albo nawet realizację w wersji webowej podobno już jest całkiem nieźle dostępny.
Ja się tego dowiedziałem zresztą w ubiegłym tygodniu takiej konferencji.
I to jest ciekawe, bo podobno to nie było tak.
I prawdopodobnie w przypadku RWS, czyli tego, co się kiedyś nazywało SDL,
czyli producenta Tradosa, też tak nie było.
Ale podobno przeważnie jest tak, że trafiają na jakieś biuro tłumaczeniowe
albo agendę rządową gdzieś, którzy mówią,
No tak, ale jak wy nie spełniacie standardów dostępności, to my was na pewno nie weźmiemy.
No i to powoduje natychmiastowe zainteresowanie tematem, bo okazuje się, że już wcale nie jesteśmy taką małą, skromną grupą, którą można olać po prostu.
Ja tylko życzyłbym sobie, to tak jeszcze wejdę ci Wojtku w słowo, ja życzyłbym sobie tylko tego, żeby ta dostępność faktycznie była obecna.
i żeby to ktoś weryfikował, bo słuchajcie, ja pamiętam, to już kwestia iluś, iluś lat,
bo teraz już się tym nie zajmuję, ale kiedyś przez krótką chwilę się zajmowałem
tym tak zwanym business intelligence’em, czyli po prostu siedzeniem w takim narzędziu od orakla,
akurat w tym przypadku to był orakl, i generowaniem różnych raportów
na podstawie jakichś określonych parametrów, że na przykład sprzedaż chciała mieć to, informacje dotyczące tego, marketing potrzebował tam czegoś innego,
jakieś oddziały konkretne danej firmy potrzebowały jeszcze tam czegoś, no i tak dalej, i tak dalej, to się po prostu generuje za pomocą takich specjalistycznych narzędzi
na tak zwanych kostkach OLAP, to się wszystko opiera.
Jezu, nie przypominaj mnie.
A, no właśnie, to jest bardzo ciekawe, nie no, generalnie business intelligence to jest bardzo fajna i bardzo ciekawa gałąź, mnie to naprawdę zainteresowało, powiem szczerze, na tamte czasy, jak się w to gdzieś tam zagłębiłem, bardzo fajna sprawa, tylko nawet Oracle, to narzędzie, ten ich BI, był dostępny, to znaczy oni zadeklarowali, że on był dostępny.
I oni bardzo się tym szczycili gdzieś tam w dokumentacji, tylko zapomnieli dodać,
że ten BI był dostępny w taki sposób, że dało się wygenerować bardzo podstawowe raporty.
Tam później te kostki można było obracać na przykład w różne strony.
I na podstawie obrotu tej kostki wokół konkretnej osi można było uzyskiwać różne dane.
No i niestety, po wygenerowaniu kilku takich prostych raportów, kiedy chciałem zabrać się za coś dalej, to już okazało się, że tego niestety zrobić się nie da, po prostu te, obracanie tych kostek, czy jakieś dodatkowe wyszukiwanie parametrów jest niedostępne, i to jest niedostępne właśnie w tej wersji, która była stworzona z myślą o dostępności, w jakimś takim trybie, który tam można było sobie włączyć.
w tym oraklu. Więc ja życzę wszystkim, którzy będą testować Tradosa, żeby naprawdę intensywnie ten interfejs przetrzepać,
bo żeby się po prostu nie okazało tak, że ktoś twierdzi, że coś jest dostępne, że jest super, a potem okazuje się, że nagle niestety
pojawiają się problemy i to w takich jakichś kluczowych elementach.
Ja się zapisałem do tych testów, zobaczyłem, co oni tam zrobią, ale wchodzę w słowo chyba Paulinie.
Tak, że jesteśmy przy kostkach danych, to myśmy na studiach mieli też właśnie
przedmiot a propos tego Business Intelligence i myśmy korzystali z takiego
rozszerzenia do Visual Studio, które miało tam
ułatwiać cały ten proces. Z tym, że właśnie ono było całkowicie i kompletnie
niedostępne i właśnie jak żeśmy je testowali, to zaraz po zajęciach
jak zadzwoniłam na Be My Eyes, na ten specjalistyczny, jak to się mówi, specjalistyczna pomoc i tam jest oddział Microsoftu.
No więc miła pani zapytała mnie jaką mam licencję, z czego korzystam i o co pytam i jaki jest mój problem.
A jak już powiedziałam jaki jest mój problem, to dowiedziałam się, że oddział specjalistycznej pomocy Be My Eyes nie świadczy pomocy na temat Visual Studio.
To chyba bardzo znacząca uwaga.
To jest właśnie to, co o tym Michale opowiadałeś,
to jest standardowy przykład, taki sztandarowy przykład
tak zwanej fasadowej dostępności.
I to bardzo często właśnie bywa w różnych takich programach
bardziej specjalistycznych, że jest tylko ten wierzch dostępny
albo tylko jedna funkcja, albo tylko z jednej perspektywy,
bo się na przykład zakłada, że taka osoba niewidoma
to będzie tylko uczestnikiem, ale już gdzieś tam twórcom, żeby coś robić,
to już nie, to już nie potrzeba dostępności.
I żeby nie było, to rozszerzenie było w Microsoftu.
No Wyszło Studio jest w Microsoftu.
Ale to rozszerzenie też było w Microsoftu.
To ja słyszałem też historię osoby, która w innej jakiejś działce
się wgryzła w jakieś narzędzie specjalistyczne, które zakładało
tylko również właśnie, że chyba chodziło o coś radiowego,
że niewidomy, to on tam będzie chciał sobie pograć w jakimś radyjku internetowym,
ale gdzie by przyszło do głowy, żeby jakieś parametry,
no nie wiem, nadajnika czy odbiornika przy stawianiu takiej stacji FM naziemnej
były potrzebne, no i gdzieś tam od słowa do słowa,
gdzieś tam się ta osoba przegryzała przez linie supportu różne,
no i ostatecznie twórca programu stwierdził,
a to najlepiej asysty sobie skombinować do tego zadania,
bo to za ciężko, żeby oni zrobili dostępność tej konkretnej jakiejś zakładki.
To daleko szukać, jeżeli twórca Telegrama uważa, że niewidomych nie jesteś na iPhone’a,
więc nie ma sensu robić dostępności do specjalistycznych narzędzi.
Wspaniałe, wspaniałe.
Przechodząc do dalszych tematów, z którymi do Was dzwonię,
to może tak, temat, poruszono tutaj testów na inteligencję tę prawdziwą,
dla niewidomych. Ja nie pamiętam, jak to się odbywało,
A ja jak byłem w podstawówce, czyli nad temu sporo, ze 30, może 20 parę, ale raczej tylko w okolicach 30,
to dostałem taki test, był taki test, zrobiłem z panią psycholożką i tam był oczywiście taki zegarek, stoper.
Ja już nic z tego oczywiście nie pamiętam, ale była jakaś taka forma, on chyba po prostu był okrojony o pewne części,
ale wiem, że wynik tam jakiś został podany.
Chyba było przed tym testem, egzaminem do liceum.
Jakoś na końcu podstawówki.
Także jest, jest.
Ktoś to robił kiedyś, a jak teraz to wygląda, to nie mam pojęcia.
Okej, ale na ile on był miarodajny?
No właśnie, bo mówisz, że było to w jakiś sposób okrojone
i teraz pytanie, czy można to porównać z takim pełnym testem IQ, tak?
Nie, nie, nie, ja to rozumiem.
Ja po prostu tego nie wiem, nawet przypuszczam tak naprawdę, że on był okrojony,
bo wtedy jako dzieciak to mnie to w ogóle nie interesowało.
Ale taki wynik też punktowy otrzymałem na koniec.
Na ile spełniał te kryteria wierności, rzetelności, trafności i tak dalej,
to ja nie mam pojęcia oczywiście, tylko po prostu taka historia z przeszłości.
To teraz jeszcze przejdę do czegoś zabawnego, właściwie do dwóch rzeczy zabawnych.
Rzecz zabawna numer jeden, to pamiętacie, że w ubiegłym tygodniu pytałem się o klawiaturę,
co tu kupić i znalazłem, kupiłem i korzystam.
Klawiatura na Lego kosztowała jakieś tam 150 zł.
Przyszło to, no i okazało się, że tak.
Ma to takiego jakby dongla na USB i jest to bezprzewodowa.
Byłem trochę zaniepokojony, włożyłem tego dongla do grailianta,
ale on natychmiast zaraportował radośnie, że właśnie włożyłeś klawiaturę USB i jest podłączona.
Także super, bardzo się ucieszyłem.
I wszystko ładnie działa, nie ma właściwie żadnego…
Jest jedno, ale małe.
On nie może pisać polskich znaków.
Nie wiem, co się dzieje.
Naciskam te klawisze i próbowałem też na innej klawiaturze,
że w ogóle nie wyskakują polfonty, żadne.
Tak że to jest coś, co gdzieś tam muszę jeszcze zbadać.
Ale zdarzyła mi się też bardzo zabawna,
chociaż jak się działa ta historia,
to nie była ona dla mnie bardzo zabawna,
bo to jest klawiatura USB,
ale ona też jest klawiaturą Bluetooth.
Ona tam ma ze dwa miejsca na dwa urządzenia.
No i sobie podpiąłem tam iPhona,
pobawiłem się trochę tym, tamtym,
poszedłem spać, zupełnie o tym zapomniałem.
Rano wczoraj wstałem, to bardzo wcześnie, bo tam na ósmą zajęcie,
a jeszcze o siódmej jestem już w pracy, przygotowuję,
bo to trzeba postawić wszystko i och, ach.
Jadę autobusem, patrzę, kurczę, ten telefon w ogóle nie działa.
Nie ma żadnego dźwięku, niczego, no trochę przerażony.
Myślę, dobrze, przyjdę do pracy, nie tą czy inną metodą,
to zmuszę go do działania.
No i tak, próbowałem tak, podziel, udostępnij ekran przez Maca.
No to nic, ale patrzę tak, pinguje go z zegarka, dzwoni, wszystko jest okej.
Jezu, i tyle po prostu się namęczyłem.
A, w końcu udostępniłem kamerę z iPhona.
No i wszystko jest okej, wszystko gra, co się dzieje?
No ale wpadłem na taki pomysł, że jest taka opcja na zegarku,
że możesz to włączyć jakby kontrolę z dalną iPhona.
No i rzeczywiście jak ja w to kliknąłem, to się włączył voiceover, hura, po prostu wszystko, odzyskałem kontrolę.
Włożyłem do plecaka ten… nie, nawet nie włożyłem do plecaka, posiedziałem chwilkę, porobiłem jakieś rzeczy, patrzę, znowu to samo.
Jaka była odpowiedź? Otóż ja zapomniałem wyłączyć tej klawiatury.
Więc on mi wyciszał, ściemniał ekran i jeszcze dzwonił do jakichś ludzi,
bo ta klawiatura po prostu się gdzieś tam kolebała po plecaku.
Ważna lekcja dla mnie zawsze…
Ja kiedyś sobie wcisnąłem plecakiem włącznik słuchawek bluetooth w plecaku
i też się dziwiłem, czemu nie mam dźwięku.
Także takie historie też mi się już kiedyś zdarzały
i byłem naprawdę przerażony, bo byłem w podróży wtedy.
To jest ostatni moment, kiedy byście chcieli, żeby ten telefon przestał mieć współpracę.
Naprawdę, uwierzcie.
Natomiast co do jeszcze klawiatury i monitora.
Czy ty, Wojtku, aktualizowałeś tego Braillianta do najnowszej wersji?
Bo teraz wyszła już wersja 2.2.
Tak.
Aktualizowałeś.
Dla tych, którzy nie wiedzą, wyszedł ten tryb tylko od monitora Braillowskiego,
czyli można ukryć wszystkie te smart-opcje.
I to jest chyba fajna opcja dla ludzi, którzy wymagają od tego monitora,
żeby był tylko monitorem i można tam w jakiś sposób poukrywać, żeby on nie pokazywał tych wszystkich notatników, terminarzy, kalkulatorów i tak dalej, tylko żeby po prostu był monitorem bailowskim do komputera.
Z drugiej strony może wtedy kupić coś tańszego, co jest tylko monitorem i koniec.
Tylko właśnie chyba nie ma za bardzo, teraz każdy jeden monitor na rynku właśnie taki jest, czy to jest Focus, czy to jest Brailliant, czy to jest Braille nawet Edge starszy, chociaż teraz ten Braille Emotion wychodzi, to wszystko, to już nie ma, skończyły się czasy chyba klasycznych monitorów, które są tylko monitorami, teraz jest całe menu i cały garnitur różnych funkcji.
Znaczy, mnie to się bardzo podoba, ta opcja z podłączoną klawiaturą, bo to bardzo szybko się wpisuje.
No i ja ostatnio miałem coś takiego, że właśnie mamy oczywiście idiotyczny panel dotykowy w sali
i wyłączyłem owszem monitor, który jest w sali, ale zapomniałem o wyłączeniu monitoru w kabinach.
W związku z tym piszę sobie, piszę radośnie jakieś notatki, kto tam chce robić źle, dobrze.
że nagle przełączam się na jedną dziewczynę, a ona mówi,
no nie, jak tak pan pisze, to mnie tak dekoncentruje,
że nie ma mowy, nie będę tłumaczyła.
No i dopiero wtedy się zorientowałem, co się stało.
Tak że rzeczywiście opcja pisania na tym braliancie z klawiaturą
jest po prostu dobra, no bo tam ani mi nie zajrzy.
Ta sama zresztą mi, kurczę, zagląda przez ramię, nie?
I patrzy, jakie cecha tam mam za notatki.
Bo siedzi koło mnie, no to zagląda, no.
Trudno. A na tym brajlancie to mi może se zajrzeć.
Także myślę, że sama idea jest fajna,
ale szkoda właśnie, że jest to jakoś tam niedopracowane,
albo czegoś jeszcze ja nie potrafię robić.
Ale powiem wam jeszcze jedną rzecz,
że właśnie na tych zajęciach też ja,
ponieważ to jest ósma rano, wtorek,
wszyscy wiadomo jeszcze zaspani,
to im puszczam różne tam piosenki o poranku,
a teraz właśnie wpadłem na to,
żeby puścić im suno.ai, żeby coś wymyślił suno.ai i wymyślił piosenkę m.in. Entrelas Cabinas.
Także bardzo przyjemna jest.
No i pomyślałem, że też stworzę jakąś piosenkę o Tyflo Przeglądzie.
No i jest taka piosenka, to mogę wam wysłać, jak tam zdecydujecie, to puścicie, jak nie to.
Bardzo chętnie.
To nie, ale jest bardzo zabawne i chciałem powiedzieć też,
że właśnie jest to taki element elblistyczny,
ponieważ w drugiej zwrotce czytamy
Dzwońcie i bierzcie udział w naszej społeczności.
Wzrok nie ma granic.
Tylko chcecie uwierzyć.
Także na tym, na czym trenujemy, to mamy też teksty.
A skądże?
Przecież ja tylko dałem jakiś prompt,
Zresztą ze mnie żaden prompt engineer, więc ten prompt był mega prymitywny, no ale coś tam wyszło.
Ale tekst jest, natomiast entra z kabina zrobiło furorę po prostu, moja koleżanka wzruszyła się bardzo tym tekstem.
Za jakiś czas, mówię wam, powstanie jakaś lista przebojów sztucznej inteligencji wygenerowanej przez Suno.
No oni już wewnętrznie mają, jest Explore, zakładka, jest Trending, tam zakładka.
Tak, Trending to jest naprawdę festiwal przeciekawych kreacji.
Pamiętasz Tomku, my znaleźliśmy niemiecki metal, który okazał się w tekście być przepisem na ciasto.
To jest paczka cukru waniliowego.
I różne inne ciekawe rzeczy, więc no, tak, tak, tam już można powoli się bawić w Marka Niedźwieckiego i ekipę, tak.
To jeszcze szybko uzyskałem zgodę od małżonki, więc opowiem jeszcze jedną zabawną anegdotkę, ponieważ jak małżonka zobaczyła, że tak ja tworzę na zajęcia piosenki,
powiedziała, jak to teraz napisz jakąś o mnie.
No więc tam szybko wpisałem, że coś Kamilka,
poranne wstawanie, kawa do łóżka, coś takiego, nie?
No i wygenerowało tekst, a jeszcze w stylu andyjskim.
To coś tam napisała, że Kamila jest piękna,
coś tam w stylu andyjskim, czy coś takiego,
jakąś taką bzdurę, ale najfajniejsze było,
jak napisało Kamilka tańczą, Kamila z poranną kawą,
To jest chwila dla nich.
Także może kiedyś Nobla literackiego dostanie ta sztuczna inteligencja.
Może.
Ja szczerze mówiąc, jak korzystam już z tego czerpa,
to wolę sama coś napisać, bo G.P.T.N. to jest 3,5,
więc nie jest to jakiejś najwyższej jakości.
Ale no, pośmiać się można.
Ale ten drań wymuje nawet.
My Częstochowski, ale bardzo zabawne właściwie takie.
Tandetne totalnie.
Od czegoś trzeba zacząć. Podejrzewam, że za jakiś czas będzie zdecydowanie lepiej.
Mnie się bardzo podoba, a funkcję dydaktyczną spełniło doskonale, ponieważ wszyscy się rozbudzili i bardzo byli rozweseleni.
Przystąpili rzeczywiście do pracy, jak to on powiedział, konentuzjasmo.
I tego entuzjazmu wam też życzę na dalszy przebieg audycji.
Spokojny świąt, dużo odpoczynku przede wszystkim.
I wzajemnie.
No i do usłyszenia.
Do usłyszenia.
Do usłyszenia.
I to wszystko, co przygotowaliśmy w notatkach.
Natomiast czy pojawiło się jeszcze w międzyczasie coś takiego,
czego w notatkach nie przygotowaliśmy?
No na przykład pojawiły się wiadomości od Rafała na Whatsappie, już patrzę gdzie tu jest pierwsza ta wiadomość, której nie odsłuchaliśmy, o tutaj.
To dziękuję za obszerną odpowiedź, a jeszcze tu mam jedno pytanie do Tomka, bo on to się zna na dźwięku.
I jaki jest najlepszy, najlepszy by był mikrofon do wokalu, dokładnie do wokalu, do śpiewu to chodzi mi, jaki jest najlepszy mikrofon.
No, pozdrawiam, to by było wszystko z mojej strony na dziś.
I wy cały świąt i smacznego jajka życzą na święta dla was, dla was wszystkich tutaj i dla słuchaczy.
No to my też słuchaczom rzeczywiście wszystkim życzymy tego mile spędzonego czasu, bo rzeczywiście, no bo słyszymy się dopiero po świętach.
Tak jest.
Jak dobrze myślę.
Zgadza się, natomiast Tomku, co z tym mikrofonem do wokalu?
Co z tym mikrofonem do wokalu?
Jaki najlepszy?
Nie ma takiego.
To znaczy, kwestia jest tego typu.
Z mikrofonami do wokalu problem polega na tym, że
W pewnym momencie zaczyna się problem pod tytułem, że do każdego wokalu potrzebny jest trochę inny mikrofon, dlatego że one są trochę różne, jedne będą miały więcej góry, inne więcej dołu i tak dalej.
i tak dalej. I to nie jest, i to czasami w ogóle robi się tak, że jeżeli ktoś ma na przykład dużo, no takich wysokich w głosie, to się kupuje mikrofon trochę ciemniejszy, żeby to wszystko zrównoważyć.
Ale też nie zawsze. No też zależy w jakiej cenie, no ale w każdym razie, no tu chyba nie ma jakiegoś jednego dobrego rozwiązania.
Więc trudno tutaj rzucić konkretną nazwą, bo tych mikrofonów naprawdę jest teraz bardzo dużo.
Ja też znam tylko kilka na dobrą sprawę, nie wiem czy to są najlepsze, nawet w tych cenach.
No i właśnie zależy też trochę dla kogo. No i nie da się tak chyba wskazać jednego słusznego.
Nawet w studiach nagraniowych często tych mikrofonów do wokalu to nieco, że jest kilka, tylko kilkanaście na przykład i się dobiera mikrofon do konkretnego człowieka.
Tu chyba nie ma jednej dobrej odpowiedzi, tak mi się wydaje przynajmniej.
No dobrze, mamy wiadomość od Wojtka i to jest chyba to jego dzieło, które wygenerował. Posłuchajmy w takim razie.
U tych trosze grunt najlepsza audycja dla niewidomych
Nowości co tydzień, w środę o 20
Paulina, Michał, Tomek i Paweł dostarczają najświeższych informacji
I pomagają innym niewidomym
Dzwońcie i bierzcie udział w naszej społeczności
Wzrok nie ma granic, tylko chcecie uwierzyć
Razem tworzymy świat pełen empatii
Tyflo przegląd daje wam siłę i możliwość
Wzrok nie ma granic, nasze serca jednoczą
Niewidomi wiedzą, jak świat piękny jest
Tyflut, szekląt, wiesz, że z nami jesteś
Dzwoncie i dołączajcie do nas
Razem możemy więcej zrobić
Dzwoncie i dołączajcie do nas
Razem możemy więcej zrobić
Dzwoncie i dołączajcie do nas
Razem możemy więcej zrobić
No i tak to.
Jak ja lubię to, że zawsze kiedy czat, przynajmniej trzy i pół, ale czwórka też bardzo często, generuje coś o niewidomych.
Zawsze, ale to zawsze musi paść słowo serce. Empatia. Z razem możemy…
Ale wiesz co, gdyby… Ale tak z drugiej strony, gdyby świat miał dla nas więcej empatii, zwłaszcza na przykład twórcy różnych aplikacji, to byłoby lepiej.
Bardziej powiedziałabym o uważności niż o empatii.
No być może, być może.
Bo wiesz, empatie to mogą być, o jak wam przykro, no sorry, nie zrobimy.
Też prawda. Tu jeszcze widzę, że mamy jeden telefon, rozdzwoniliście się i bardzo dobrze zresztą.
Jak taka piosenka zachęciła, no to Wojtek jeszcze też przeprosił poniżej wiadomości, że Piotra nie uwzględnił.
No, spokojnie, pewnie jeszcze niejedną piosenkę się o Tyflo przeglądzie, albo o Tyflo podcaście uda wygenerować, to będzie okazja, żeby się zrehabilitować, a tymczasem odbieramy telefon. Kto jest z nami?
No witajcie, witajcie, Krzysiek z tej strony, no teraz ja tą formą spróbowałem się połączyć.
Witaj Krzysztofie, słuchamy.
Nie wiem, czy mnie słychać, czy nie słucham.
Tak, słychać cię dobrze, jesteś, jesteś.
Wszystko działa.
No ja się cieszę, że Paulina wróciła. Bardzo fajnie Cię usłyszeć po podługiej obecności.
Dziękuję.
Bardzo fajnie. Miałem prywatnie do Ciebie się tam nagrać. Pewnie się nagram.
Jak trochę czasu znajdę, a myślę, że go znajdę, chociaż ostatnimi czasy od lutego,
to ten czas jest taki już bardziej ograniczony, ale to dobrze.
Bo też, tak jak i ty, coś zmieniłem, też dostałem pracę, w końcu na stałe, co jest fajne.
I miejmy nadzieję, że okres próbny przejdzie dobrze i że zostanę tu, gdzie jestem.
Praca zdalna, także w sumie coś, co chciałem już od dawna robić.
I jakby doszkałam się i rozwijałam, także fajna sprawa, słuchajcie.
Bardzo dobrze, że się udało. Powodzenia i gratulacje.
Dzięki, Michale, dzięki, ale ja niestety dzwonię do Was ze smutnymi wiadomościami.
Niestety, tak na koniec audycji.
Jak pamiętasz, Michale, swego czasu robiliśmy dosyć niedawno audycję o tej maszynce do golenia Brauna
z serii dziewiątej, z tą stacją czyszczącą.
Nie mów, że się już popsuła.
Jak byś przy tym był?
To nie no, to naprawdę, to jest…
Słuchajcie, wczoraj się goliłem i ten trymer, który tam ci opisywałem słuchaczom wszystkim z tyłu,
chciałem wysunąć, żeby dogolić te wąsy i w ogóle i tak dalej, nie?
W pewnym momencie ten trymer, on się wysunął wprawdzie, ale zaczął opadać.
jakby ta taśma, która go, nie wiem, tam reguluje jakoś, czy trzyma, żeby on nie opadał,
on tak sobie luźno, wiecie, chodził. W pewnym momencie go jakoś tak podważałem,
żeby jednak nie spadał, tylko był na tej samej wysokości, na której ja chcę,
żeby był, tak? I niestety ten trymer ciągle się zsuwał w dół, po czym jak się zaczął
trymer zsuwać w dół, przycisk power tak ładnie sobie się ruszać zaczął,
a potem w rzeczywistości odpadł od maszynki, od obudowy i jako osobny element się znalazł poza nią i została jedna wielka dziura po przycisku power.
Jakby to powiedzieć, Krzysztofie, możesz robić jako tester, to naprawdę…
Ja mówię, ja to się gdzieś muszę zatrudnić, naprawdę, bo to już jest siódma maszynka czy szósta.
Ja napiszę książkę Wadę Mekun dla niewidomych odnośnie maszynek do golenia.
Bo po prostu to jest jakiś szok.
Poszliśmy wczoraj do Komputronika, poszedłem reklamować.
Na szczęście się okazało, że gwarancja jest do grudnia tego roku,
więc dobrze, że się zepsuło w trakcie gwarancji.
Zobaczymy, co oni z tym zrobią.
Swoją drogą, a propos maszynek, to mamy też na stronach Tyflo Podcastu jeszcze jedną audycję, która niedawno się ukazała na temat innej maszynki, Philipsa, jak dobrze pamiętam.
Tak, to Paweł Pluszczyk demonstrował, więc jeżeli sytuacja Krzysztofa was zniechęciła, to jest alternatywa, która też u nas…
Znaczy, ja dam oczywiście znać słuchaczom, jak się sytuacja rozwiązała,
no ale do tego czasu coś trzeba było pomyśleć,
no bo przecież będzie człowiek zarośnięty,
no chyba, że pójdę w ślady redaktora naczelnego
i zacznę korzystać z usług Barbera.
No ale jednak chyba to nie w moim stylu
i ktoś mi polecił tą maszynkę właśnie,
Gillette, taka jak zwykła, najzwyklejsza maszynka,
do golenia z tym, że na baterie, nie tak źle, Clocklife.
I zobaczymy, co to będzie, czy będą w piątek ofiary w ludziach, czy nie,
bo taką zwykłą elektryczną, zwykłą taką, wiecie, na mokro,
bez żadnego takich tych udziwnień się jeszcze nie goliłem,
taką jak najzwyczajniej zwykłą, tylko że ona jest wspomagana tą elektryką.
Zobaczymy, co to z tego będzie w piątek.
Do środy jak przeżyję, to zadzwonię, czy były ofiary w ludziach, czy nie.
No to daj znać.
No bo to nie, no słuchajcie, to jest jakaś, jakaś porażka, bo, bo, bo tak nie może być, no.
Dobrze, Krzysztofie, czy jeszcze w jakiejś sprawie do nas dzwonisz?
No mam tutaj takiego newsa, nie wiem, czy się uda mi to odpalić z drugiego telefonu, muszę coś się skonsultować,
ale mam ciekawostkę taką a propos sztucznej inteligencji.
Dzisiaj było dużo na ten temat.
Swego czasu u nas właśnie po Carrefourze jeździł robot,
który się nazywał Carrefourz i on bardzo mnie zaciekawił.
Ten robot jest w formie takiej jeżdżącej kolumny.
Ta kolumna ma na sobie półki, na tych półkach są produkty
I ten robot, ten, ten, ten, ten cały robot, który jeździ, jest, ma głowę kota.
To, to dla tutaj, Michale, dla ciebie gratka ciekawa.
Bardzo ciekawe.
I ten kot, słuchajcie, jak się go dotknie, pogłaszcze po uszach, to on miauczy.
I może mi się uda zaraz gdzieś jakieś nagranie tutaj odtworzyć.
Zaraz zobaczymy.
Będziemy szykować do odtworzenia.
Chwilka cierpliwości.
Ten robot jeździ, on ma na półkach produkty.
Można sobie coś tam wziąć od niego.
On zachęca do kupowania, w Kelfurze je.
Generalnie to on działał, dopóki ja się przy nim nie pojawiłem.
Nie mów, że też popsułeś.
Coś bym nacisnął i go na chwilę zastopowałem.
Krzysztofie, elektronika to ewidentnie cię nie lubi.
Ja mam takie wrażenie.
Chyba nie.
Zapuszczę nagranie.
Oj, ale obawiam się, że my z tego to wiele nie usłyszymy.
Wiesz co, Krzysztofie?
No to podesłamy to na…
No, chyba lepiej będzie podesłać to na Whatsappa.
nie wiem, czy jeszcze dziś to wyemitujemy, bo wprawdzie zaraz będziemy kończyć,
ale nawet jeżeli nie uda nam się tego zmieścić dziś,
no to zagramy sobie to, odtworzymy sobie za tydzień.
Jasne, to podeślę na kolejną audycję.
I taka w ogóle, taka prośba, jeżeli macie, to generalnie do naszych słuchaczy,
jeżeli macie jakieś dźwięki, wysyłajcie nam to proszę na WhatsAppa,
bo wtedy możemy to bardzo łatwo wyemitować.
Jeżeli nam coś tu wrzucicie, to po prostu, no to jest dla mnie,
bardzo prosta sprawa, żeby to na antenie się pojawiło.
Dobrze, Krzysztofie, to jak rozumiesz wszystko?
To wszystko ode mnie, no to powodzenia i tam do następnej audycji.
Do następnej, trzymaj się, do usłyszenia.
No to to, ktoś coś jeszcze znalazł na przykład,
albo jakieś wiadomości pojawiły od słuchaczy.
Telefon dzwoni do nas.
Telefon? Znowu? Kolejny?
Tak, na to wychodzi.
Wow.
No to dobrze, to odbieramy w takim razie telefon.
Dziś rozdzwoniliście się bardzo, na koniec.
Kto jest z nami tym razem?
Witam serdecznie, dobry wieczór.
Małgorzata z tej strony.
Dobry wieczór.
Witamy.
Ja chciałabym wypowiedzieć się na temat
telefonu Smart Vision 2, którego byłam
użytkowniczką przez jakieś dwa latka dosłownie.
I chciałam powiedzieć właśnie, że ten telefon
no nie spełnił moich oczekiwań,
ponieważ no niestety
jakoś tak nie był za bardzo responsywny.
To raz, dwa, że często się wieszał,
trzeba było wyjmować baterie.
A mówię o tym, ponieważ było już mnóstwo audycji, no co najmniej kilka na temat telefonu firmy Capsys i chciałabym przestrzec osoby, które zamierzają kupić ten telefon, ponieważ naprawdę trzeba się bardzo zastanowić nad wyborem.
Chciałabym podziękować, jeśli jestem już na antenie,
panu Dirkowi Marciniszynowi za mnóstwo artykułów,
mnóstwo audycji dotyczących Blind Shell Classic 2.
Przymierzam się do kupna tego telefonu, ponieważ bardzo mnie zaciekawił.
no technicznie jestem słaba, więc tutaj myślę, że Blind Shell będzie takim dobrym, stosownym rozwiązaniem dla mnie.
Ja bym tylko zwrócił uwagę na jedną rzecz, o tym o czym wspominasz w kontekście Smart Vision 2,
że już w tym momencie sprzedaży mamy i zresztą generalnie o tym telefonie mówiliśmy,
Nie było u nas żadnej audycji na temat Smart Vision 2 i audycje, które się pojawiały, były na temat Smart Vision 3, to jest kolejna wersja tego telefonu.
Tam, przynajmniej z tych testów, które się pojawiały i które zarówno Darek, jak i też Michał Kasperczak przeprowadzali, nie było, nie słyszałem takiej uwagi od żadnego z nich, żeby ten telefon w trzeciej wersji się wieszał.
więc prawdopodobnie to zostało gdzieś tam jakoś naprawione, natomiast tutaj no w kwestii tego o czym mówił na przykład ostatnio Darek, no to pojawiła się chociażby sprawa tej baterii, która tam działała dość króciutko.
Właśnie, ona króciutko działa, to fakt. Tak samo działała w jedynce, tak samo działała w dwójce i podejrzewam, że w trójce może być tak samo dokładnie.
Być może jeszcze kiedyś zresztą do tego tematu wrócimy. Myślę, że tematy telefonów w ogóle klawiszowych jako takich, ja przyznam szczerze, że nie spodziewałem się takiej ich popularności.
Wydawało mi się, że to już jest jednak pieśń przeszłości, a okazuje się, że niewidomi tęsknią i szukają jeszcze takich rozwiązań.
Bardzo dużo osób, mam w swoim gronie takich, które mają telefony klawiszowe i rzeczywiście za nimi tęsknią i bardzo chcą tych telefonów.
Oczywiście będę szukać dalszych rozwiązań, ale Bineshell Classic 2 musi być, ponieważ na dzień dzisiejszy jestem w takiej sytuacji, że korzystam z Nokii E66 z 2008 roku.
Także muszę niestety już kupić, bo miałam kiedyś LG OneSmart.
Fakt, że to był dziwny telefon, też półdotykowy i też z klawiaturą,
ale on, jak dla mnie, naprawdę był fantastyczny i on działał 10 lat bez żadnej naprawy.
Proszę mi wierzyć, ani razu się nie zaciął, ani razu się nie zawiesił.
Nie miałam z nim żadnych problemów i baterię też można było dokupić.
Zapytam z ciekawości, czy próbowałaś w ogóle jakichś telefonów dotykowych?
Oczywiście, że próbowałam. Nie mam cierpliwości do klikania, do szukania palcami czegoś.
Dla mnie telefon to musi być taki, że ja bym chciała zadzwonić, wysłać wiadomość, odebrać,
coś porobić na YouTubie, na WhatsAppie i to mi wystarczy zdecydowanie.
Jasne. A jakie to były telefony, jeżeli chodzi o ekran dotykowy? Co to było? Na czym próbowałaś podziałać sobie?
To był Redmi, a jeszcze wcześniej Samsung.
Czyli na przykład z iPhona nie próbowałaś korzystać?
Miałam dosłownie przez 10 minut.
No to nie. Wydaje mi się, że tu warto by było się trochę dłużej nim pobawić, ale może kiedyś jeszcze będziesz miała okazję, to ja szczerze mówiąc polecam.
Tak, no nie mówię nie.
Okej, to w takim razie czy jeszcze jakieś tutaj masz do nas pytania?
Nie, to wszystko. Dziękuję serdecznie za fajne audycje.
Życzę wszystkim prowadzącym i słuchaczom
wesołych świąt i wszystkiego dobrego
i żeby te tyflo przeglądy jednak się pojawiały,
bo bardzo ciekawe audycje.
Robimy co możemy.
Robimy co możemy. Dzięki serdeczne za życzenia.
Pozdrawiamy cię również i również wszystkiego dobrego.
Dzięki, dobranoc.
Dobrej nocy.
No i mamy wiadomość od Krzysztofa.
Mamy wiadomość od Krzysztofa.
Tu chyba ten kerfuś przemówi.
Zobaczmy.
Słyszę w radiu znajomy głos.
Pozdrowienia dla Małgosi tutaj od nas.
I no fajnie, że dzwonisz do radia.
Pozdrawiam, Karpuś.
Czyli Karpuś jednak nie przemówił.
No okej, to trudno.
Więcej nic nie ma.
To w takim razie…
Koniec w sumie dodam, bo nie wiem czy
było mówione o tym, w sensie
wiem, że było mówione o tym, że Ableton jest dostępny,
ale nie wiem czy ktokolwiek to testował.
Ja się trochę
tym bawiłem.
Ja się trochę tym bawiłem i…
Powiem szczerze, ale to
To jest, ale to powiem tak z perspektywy osoby, która pracowała przez ileś tam czasu na Reaperze,
ja się trochę czuję zagubiony w tym programie.
I mam wrażenie, że on tak nie do końca działa stabilnie, ale może to są tylko jakieś moje takie odczucia.
I to są bardzo wstępne odczucia, absolutnie ja się tu nie czuję osobą jakoś bardzo kompetentną do tego,
żeby powiedzieć, czy to jest już na tyle dobra dostępność, że można z tego korzystać, czy jeszcze nie.
To z kolei mi się dość mocno podoba ten Ableton, bo jeśli chodzi o rippera, no to ja mam tam taki problem, że w sumie to pobieram tam jakąś wtyczkę,
No bo ja nie mam żadnego ani Nativa, ani Arturi, ani nic. Ja po prostu sobie tak bardzo amatorsko i tak fanowsko coś czasami poklepię w klawisza.
Więc no pobieram te wtyczki i tak naprawdę nie wiadomo czy będzie trzeba przez te parametry pod P, czy przez presety, czy przez OCR, czy przez jeszcze coś tam.
No tutaj jestem w Abletoniku, sobie latam po browserze, mam wyszukiwarkę uwzględniającą wszystkie instrumenty, słyszę sample, daję enter i mogę grać i spoko, natomiast…
Okej, to ja tylko, Paulino, wejdę Ci w słowo, jeżeli chodzi o te moje próby jakiekolwiek, to one dotyczyły jakiejś edycji audio, miksowania utworów jednego z drugim, tego typu rzeczy, ja absolutnie nawet nie podchodziłem do jakiejkolwiek próby stworzenia czegokolwiek,
na Abletonie, to od razu tu takie zastrzeżenie.
Okej, natomiast no to właśnie czego ja nie robiłam, to nie,
totalnie nie tykałam się edycji, bardziej tak sobie eksplorowałam
na co to stać, tak pod kątem właśnie brzmień, pod kątem
nie wiem, czy jestem w stanie ustawić metronom, czy jestem w stanie
sobie zacząć coś nagrywać i tak dalej.
I w sumie jedyne co mi się nie podoba to to, że nie umiem do końca, w sensie no chyba, że nie ma, ale nie sądzę
wybrać jakichś takich parametrów dotyczących konkretnego instrumentu, no bo nie sądzę, że to jest na tyle biedne, że
parametry dla instrumentu to jest tylko jakiś tam reverb, delay, chorus, coś tam jeszcze i koniec.
Myślę, że jest tego troszkę więcej, nie wiem, chociażby jakieś takie
no typowo odnośnie instrumentu rzeczy. Na przykład na ile gitara ma być taka
naturalna, a na ile taka typowo klawiszowa. W sensie nie wiem, czy dobrze o tym mówię, ale
ale właśnie na przykład jak ma wyglądać
przejście pomiędzy jednym wciśnięciem, a drugim wciśnięciem klawisza danego
i tak dalej. Natomiast no, bardzo chętnie
bym się poradziła kogoś, kto testował to bardziej, ale wydaje mi się, że
ma to potencjał na pewno. A na pewno ma potencjał, jeżeli
team deweloperski dalej chce się zajmować tą dostępnością.
No bo tak naprawdę tabem chodzimy po kontrolkach
tych od grup, a z cyfra chodzimy po grupach
Wydaje mi się to w miarę intuicyjne, to co mnie denerwuje to to, że za każdym razem jak się zmienia input albo output w urządzeniach audio, to ta strona ustawień przeskakuje na jakąś inną kontrolkę, nie można sobie po prostu zwyczajnie jak na liście rozwijanej wybrać tego inputu, tylko za każdym wciśnięciem strzałki lądujemy gdzieś w jakimś losowym elemencie tej strony ustawień, ale tak poza tym to mi się podoba.
Chyba też to w końcu muszę przetestować, także. No dobrze, to co, bo tak głupio będzie
po raz kolejny powiedzieć, że kończymy, ale w sumie to nie. Ale chyba teraz już
faktycznie skończymy, tak mi się przynajmniej wydaje. To ja w takim razie tylko
się przypomnę, że dzisiaj w audycji brali udział Paulina Gajoch, Paweł Masarczyk,
Michał Dziwisz i ja, czyli Tomek Bilecki.
No i do usłyszenia, miejmy nadzieję, za tydzień.