TyfloPrzegląd Odcinek nr 296 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie
Wiemy więcej o usłudze Pyszne Plus
Envision ujawnia nowe okulary
Sierpniowa aktualizacja telefonów Blindshell
Nowości w grach
Przyspieszanie wiadomości audio w iMessage wreszcie dostępne.
Bezpośrednie pisanie bezwzrokowe i działająca przeglądarka Samsung z Joshua?
Dzięki nowej aplikacji to możliwe.
Nowa, stabilna i testowa wersja NVDA.
Scores, dostępna przeglądarka zmagań sportowych zza oceanu.
Budget Brailler, tania, elektroniczna maszyna braillowska.
Dostępność kontrolerów Complete Control Mark III w końcu wydana.
Nowości od Google.
W Polsce nie zapłacisz już na Steamie PayPalem.
Apple przez pomyłkę ujawniło nadchodzące produkty.
Kolejne zmiany w GPT-5. Będą też informacje o nowościach w Gemini.
Pojawią się telewizory z Tizen OS, nie od Samsunga.
W Disney Plus będzie drożej.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600
Dwieście dziewięćdziesiąte szóste wydanie Tyflo Przeglądu właśnie się rozpoczyna i zaczynamy kolejne spotkanie z Wami i z nowoczesnymi technologiami,
Piotr Machacz, Maciej Walczak, oni dziś będą przekazywać informacje, a tych informacji jest troszeczkę, zatem myślę, że możecie się przygotować na kilka ładnych godzin w naszym towarzystwie, a jak jeszcze od siebie coś dodacie.
Uuu, no to będzie się działo.
Dobrze, to w takim razie zaczynamy od tematów, które już poruszyliśmy w audycji poprzedniej.
Usługa Pyszne Plus. To nasz słuchacz Roberto Toiowo nam opowiedział, a ty Maćku chciałbyś jeszcze Toiowo dodać.
Tak, no generalnie dzięki Roberto za cynk w tej sprawie.
Jak się okazało, też mam tę możliwość sobie, że tak powiem, skorzystania z tej usługi,
czy raczej w sumie z karnetu tak naprawdę. To polega na tym, jak Roberto słusznie wspomniałeś,
w zakładce nagrody się to nam pojawia. No i generalnie była już mowa o tym,
że to, ten karnet się wykupuje podczas finalizacji zamówienia.
Można sobie wtedy dodać do koszyka właśnie dodatkowy karnet za 9,99 albo 10.
Już teraz pamiętam w każdym razie te okolice.
I polega to na tym po prostu, że jak twierdzi Samo Pyszne,
Z prawie każdej restauracji jest, co znaczy nie płacimy za dostawę, przy czym minimalna kwota zamówienia wynosi 50 złotych, jeśli powiedzmy kupujemy sobie coś za mniej, no to wtedy ten karnecik nas nie obowiązuje.
Jest on ważny 3 miesiące, co najważniejsze, no nie jest to subskrypcja.
Tylko jest to no po prostu sobie karnet na te trzy miesiące.
Jest on nieodnawialny. Po trzech miesiącach możemy zdecydować,
czy chcemy dalej korzystać, to znaczy wykupić sobie nowy karnet,
czy też nie. Zamówienia możemy sobie składać na to bez limitu.
Tak naprawdę ile dusza zapragnie, tudzież żołądek przyjmie.
No generalnie wówczas te dostawy mogą być darmowe.
za tą dyszkę, na te trzy miesiące.
I co jeszcze warto o czym wspomnieć, że
wszystkie formy płatności są, że tak powiem, dozwolone,
ale bezgotówkowe. Czyli gotóweczką, jeśli
by nam się zamarzyło, to
niestety to nie przejdzie. Wszelkie Apple Pay’e,
bliki,
przelewy 24, w tym karty i tak dalej,
mile widziane. Do tego natomiast gotóweczka, niestety.
No i to chyba tyle.
No dobrze, to w takim razie teraz przechodzimy do wątku, który to pojawia się u nas bardzo, ale to bardzo często, bo o sztucznej inteligencji mówimy dużo, mówić dziś też będziemy, ale zanim się rozgadamy na temat bieżące, to jeszcze taki suplement i taki komentarz naszego słuchacza Mateusza,
Mateusza, który, to właśnie Mateusz, zamieścił na naszej stronie internetowej www.tyflopodcast.net pod poprzednim 295. tyfloprzeglądem.
Odnośnie modeli AI, tak tylko przypomnę, że jakoś około półtora roku temu pokazano tryb wideo w GPT.
Tyle czasu minęło, a tryb wideo dalej żyje swoim życiem i przeważnie opowiada takie bzdury,
Dziś jest już czas na szczęście,
a nie na to, że już politykom zdarza się częściej mówić prawdę.
Osobiście przestałem opłacać ich plan,
bo wywalałem stówę miesięcznie,
a i tak wszystko musiałem ręcznie weryfikować.
Gemini podchodzi do tematu uczciwiej,
bo model 2.5 Pro ze wszystkimi funkcjami
oprócz generowania filmów mamy za darmo,
tylko że z limitami.
Jak nam się spodoba, możemy kupić i korzystać więcej,
A jak nie, to wychodzimy na zero. W GPT najpierw zapłać, a potem dopiero się dowiedz, że model opowiada głupoty.
Inna sprawa, że Gemini kłamie dość rzadko, więc jeśli już muszę komuś zapłacić, wybieram Google.
Takie jest zdanie Mateusza. Ja mam wrażenie, że ile ludzi tyle opinii.
I to jest chyba też trochę tak, że generalnie jak ktoś się trochę nauczył rozmawiać z danym modelem,
To już po prostu mu to lepiej lub gorzej wychodzi.
Bo ja na przykład nie spotkałem się z tym, żeby GPT jakoś bardzo mocno kłamał.
Oczywiście coś mu się tam halucynować zdarzy.
Natomiast nie jest to jakąś taką normą. Nie jest to aż tak bardzo nagminne.
zwłaszcza, że jeżeli ja chcę na przykład mieć jakieś konkretne informacje, to zazwyczaj używam do tego, tego trybu Deep Research.
Jeżeli zależy mi na wiarygodności informacji, to przede wszystkim korzystam właśnie z Deep Research.
No tylko to bardziej źródła, nie? W sensie, no robisz research w internecie, a jeśli chodzi o takie otoczenie, analizę powiedzmy otoczenia, nie? No to…
Ciekawą rzecz jakiś czas temu Piotr Witek zrobił na swojej szufladzie i porównał dwa modele.
Coś, że miał robić dla nas właśnie.
Porównał, porównał właśnie GPT i porównał Gemini. I powiem szczerze, tam rzeczywiście wyszło, że ten Gemini radzi sobie lepiej.
Przynajmniej z tych rzeczy, na tych materiałach, które testował Piotr.
To były takie dosyć istotne kwestie, typu pomylił lata 80-ty z 90-tymi, na przykład GPT, jakieś modele, odkurzacze, chyba tam też coś było nie tak.
Godziny albo numer linii autobusowej, takie rzeczy, w których byłoby dobrze, jakby się ten asystent nie pomylił generalnie.
To się zgadza. Ja takie mam wrażenie, że być może ja tu mam trochę zaciemniony obraz rzeczywistości, bo ja jeszcze jakoś z tego trybu wideo, powiem szczerze, korzystam dość mało.
Ja mam wrażenie, że to jeszcze nie mogę do końca na tym polegać i próbowałem kilka razy zarówno z GPT, jak i z Gemini i żaden mnie akurat, jeżeli chodzi o tryb wideo, nie usatysfakcjonował na tyle,
Tak się czuł zachęcony, żeby z tego korzystać. Bardziej właśnie te rzeczy tekstowe, a co do obrazków, co do takich właśnie rozpoznawania tego, co jest na zdjęciu, to jakoś cały czas Be My AI sprawdza mi się najlepiej.
Chociaż też wiem, że nie u wszystkich i zdaje się, że właśnie Mateusz też kiedyś narzekał dość mocno na Be My AI i na efekty tego, jak to rozpoznaje.
Fajnie, że możemy sobie o tym podyskutować, bo każdy ma różne doświadczenia.
No właśnie, ja powiem szczerze, że gdybym zrobił porównanie dla nas,
tutaj dla Tyflo Podcastu, to pewnie by mi wyszło, że GPT jednak się sprawdza lepiej.
I nawet nie chodzi o to, że jakoś jestem fanem GPT samego w sobie,
to też przyznaję, ale żeby być gwoli uczciwości i szczerości,
Testowałem też właśnie oba rozwiązania i to jeśli chodzi o takie drobinki, drobnostki typu stan naładowania Power Banka czy coś, czy coś właśnie tekstowego, czy nawet analizę otoczenia w kuchni u siebie dla testu.
Czy na przykład ten…
Co ja tu testowałem jeszcze?
A, po uprzedniej konsultacji
z osobą widzącą,
bo też dostałem swego czasu
nową szczoteczkę soniczną
i tam chciałem rozszyfrować,
które tryby, w jakiej kolejności,
też i tak dalej.
No i szczerze mówiąc, po konsultacji
z osobą widzącą,
GPT nie pomylił mi się w zasadzie ani razu,
a Gemini,
jak go próbowałem wpuścić w maliny,
to też się ugiął, powiedzmy, i gdzieś tam zaczął sobie już pójść…
Pierwsze próby były okej, powiedzmy, pierwsze trzy, może cztery.
Ale jak powtarzałem sobie to doświadczenie
i mocno go motałem, zmieniałem mu kolejność tych trybów,
przy czym ja wiedziałem, który odpowiada za co, który jest który,
no i to już mi Gemini zaczął ładnie schodzić na manowce,
gdzie GPT cały czas trwał sobie na posterunku nieustraszenie,
No, moje doświadczenia są takie zresztą, o tym też będę mówił później w technikaliach, jeśli chodzi o GPT-5 i tak dalej, gdzie opinie są mocno podzielone.
Mnie się sprawdza bardzo fajnie i różnie mają ludzie zdanie na ten temat różne.
Więc no, nie wiem, co człowiek też to opinia tak naprawdę i co człowiek to doświadczenia, więc tutaj też trzeba sobie, prawda, wyciągnąć średnią…
To są też tak różne przypadki użycia.
Tak, dokładnie.
Obecnie ludzie pytają o AI i to tak naprawdę różne modele o bardzo różne rzeczy.
I on jest testowany i to każdy model tak naprawdę w tak różnych sytuacjach,
że ja się wcale nie dziwię, że doświadczenia nasze są bardzo, bardzo różne.
Ale to fajnie, że możemy też je sobie powymieniać, no bo tu jednak takim punktem wspólnym w naszych przypadkach użycia jest to, że jednak my bardzo często takiej odpowiedzi od tego modelu sztucznej inteligencji po prostu nie mamy jak zweryfikować, zwłaszcza jeżeli to jest obraz.
A jeśli mamy, to też fajnie, że jest możliwość, prawda, tu przyznania kciuka w górę czy w dół i też na tej podstawie te algorytmy dzięki w sumie nam, jak je karmimy dobrymi i złymi odpowiedziami, no to siłą rzeczy gdzieś tam się uczą po pewnym czasie, nie?
To prawda, to prawda. No tak to po prostu wszystko działa i oby działało jak najlepiej. Tego bym sobie życzył.
A skoro mowa o sztucznej inteligencji, no sztuczna inteligencja także jest w Envision, w produktach Envision i mamy do czynienia z nowym produktem tejże firmy.
Piotrze, kolej do okulary.
Tak i zostajemy w sumie właśnie w tematach AI to jak najbardziej, dlatego że te nowe okulary tak naprawdę to tylko właśnie pracują z asystentem Ally,
Nawet mówiliśmy w zeszłym tygodniu, natomiast ten wątek będziemy jeszcze sobie rozwijać.
No bo też przy okazji dowiedzieliśmy się więcej. Tak, to są nowe okulary, o których w sumie w pewnym sensie już mówiliśmy.
Nie pamiętam kiedy, bo to już trochę czasu od tego minęło.
Natomiast może kojarzycie, kiedy mówiliśmy o okularach od firmy Solos.
I były to okulary, które zachowały się tym,
że podobnie jak okulary MetaRayBan,
będziemy do tego myślę najczęściej porównuwać,
mają takie otwarte głośniki,
coś w stylu przewodzenia kostnego, ale nie do końca, tak to rozumiem.
Działają z naszym telefonem jako słuchawki Bluetooth,
ale mają też dwie kamerki odczepiane,
które potrafią nagrywać nawet w rozdzielczości 4K, się okazuje.
I przez te kamerki możemy komunikować się z różnymi asystentami
sztucznej inteligencji i Solos, czyli ten oryginalny producent,
reklamował, że te okulary będą działały.
Na początku startu GPD też była mowa o Gemini,
ale też w międzyczasie właśnie weszli w partnerstwo z Envision
i tym sposobem właśnie dostaliśmy nowy produkt,
który teraz jest dostępny w sprzedaży, czyli Ally Solos Glasses.
Są to okulary od firmy Solos,
zmodyfikowane tak, aby lepiej działały z asystentem Ally,
tak, aby działały lepiej dla osób niewidomych i nie tylko.
Rozpoczęła się już sprzedaż tych okularów.
Mają pomału zacząć być wysyłane
Pod koniec września lub na początku października,
zależy, gdzie kto patrzy, mniej więcej na to samo wychodzi.
Na początku można je było dostać za 400 dolarów, za 399 dolarów.
Teraz ta cena poszła trochę do góry, do około 500 dolarów.
Jeśli wejdziemy na oficjalną stronę, gdzie te okulary można zamówić,
a w Polsce jak najbardziej można je zamówić,
pod adresem alai.me-glasses,
To tam znajdziemy cenę w złotych, około 2100 złotych sobie liczy nVision,
ale chyba w to też już jest wliczony nasz 23-procentowy podatek VAT oraz dostawa.
Także w Polsce też jak najbardziej te okulary będzie można sobie kupić.
Co więcej wiemy o tych okularach?
Słyszałem podcastu Access On, w którym Jonathan Mosen rozmawiał z Cardigan Cannellem,
czyli jednym z założycieli nVision i rozmawiali właśnie o tych okularach,
o tym, co będzie się działo z asystentem Ally w przyszłości
i też o tym, czego mogą się spodziewać użytkownicy poprzednich okularów od nVision,
czyli nVision Glasses. Czy mają czegoś się obawiać? No, w skrócie nie.
Ale rozwijając temat, jeśli chodzi o te okulary.
No to, tak jak mówiłem, są one oparte na okularach od firmy Solos.
Konkretnie modelu Solos Ergo Vision.
Generalnie jest to właśnie ten model, o którym mówiłem.
W porównaniu do Envision Glasses, te okulary od firmy Solos wyglądają dużo ładniej.
i po prostu prawie nie widać, że te okulary mają kamerkę,
więc tutaj podobnie jak okulary od METY po prostu są dużo bardziej modne,
a też mają znacznie lepszą baterię.
Teraz nie pamiętam, jak długo działały okulary Envision.
Było coś koło dwóch albo trzech godzin.
No tutaj w przypadku okularów SOLOS
to ten czas działania na baterii jest dużo większy,
bo nawet jeśli korzystamy z tych okularów non stop,
bo ciągle rozmawiamy z Ally, streamujemy dźwięk z telefonu,
no to uda nam się uzyskać 5 godzin.
Natomiast jeśli korzystamy z nich sporadycznie,
przełączamy je w tryb soundstream,
gdzie mikrofon jest wyłączony,
chyba że faktycznie chcemy z Ally porozmawiać,
to nawet możemy do 10 godzin z tych okularów wyciągnąć.
Na stronie The Verge znalazłem informację o 16 godzinach,
natomiast nie wiem, czy to nie jest w sytuacji,
kiedy mamy aplikację Envision całkiem zamkniętą.
Ale nawet 10 godzin, to wydaje mi się, jak na coś takiego,
to jest całkiem sensowny wynik, zwłaszcza że te okulary ładują się
bardzo szybko, bo tutaj ładowanie odbywa się trochę inaczej niż w przypadku
na przykład okularów Meta. Tutaj nie mamy jakiegoś specjalnego etui,
które przy okazji ładuje te okulary, a wygląda to tak, że ten moduł
z tymi kamerkami i całą elektroniką możemy od okularów odczepić i gdybyśmy
chcieli, możemy sobie tak te okulary same założyć. Natomiast służy to też
To jest po to, że kiedy ten moduł odczepimy, mamy port USB-C
i możemy okulary czy właśnie, wiadomo, elektronikę w okularach
naładować w pełne ładowanie.
Jeśli mamy ładowarkę wspierającą szybkie ładowanie,
to zajmuje tylko 20 minut.
I znów mamy 10 godzin pracy na baterii.
Tak że wydaje mi się, że tutaj ten wynik jest naprawdę bardzo dobry.
Mamy, tak jak mówiłem, dwie kamerki,
które potrafią robić zdjęcia nawet w 4K.
Nie wiem, czy jest opcja nagrywania filmów tak, jak to jest w okularach Meta.
Na pewno jakieś wideo będzie, bo Alaj ma niedługo dostać tryb wideo na żywo,
ale o tym więcej myślę za chwilę.
Jeszcze kończąc taki wygląd fizyczny, to dowiedzieliśmy,
że tutaj dużo kontrolek fizycznych nie mamy, bo mamy włącznik,
mamy przycisk po prostu zasilania i mamy suwak na włączenie, wyłączenie mikrofonu
Zaczyna się przejście w tryb walkie-talkie, jak to się nazywa w aplikacji Ally.
Znalazłem też na jednej stronie informację o panelu dotykowym,
na którym można jakieś gesty wykonywać,
żeby regulować głośnością, otwarzaniem multimediów.
Natomiast w podcastie o tym panelu słowa nie było,
więc nie wiem, na ile to jest aktualne.
Może to jest różnica pomiędzy zwykłymi okularami Solos
a Ally Glasses, nie wiem.
Natomiast a propos właśnie zwykłych okularów Solos i różnic.
O to Jonathan Mousen też zapytał,
czy jeśli ktoś decyduje się na zakupienie zwykłych Solosów
w oficjalnym sklepie albo nawet vice versa,
czy będzie możliwość sparowania takich zwykłych,
niebrandowanych okularów Solos z aplikacją Ally.
Okazuje się, że owszem, jak najbardziej taka możliwość będzie.
No i tutaj nasuwa się następne pytanie.
Okej, no to w takim razie, jakie różnice są pomiędzy tą wersją Ally, a tą wersją zwykłą?
Drobne różnice w oprogramowaniu, które czynią te okulary trochę bardziej dostępne.
Mamy więcej komunikatów dźwiękowych, te dźwięki są wyraźniejsze.
I Kartik też zaznaczał, że może w przyszłości jakieś kolejne zmiany w firmware’ze będą dokonane.
Natomiast na pewno taka możliwość, żeby sparować te zwykłe okulary Solos z aplikacją Ally też będzie.
Może wicewersa w sumie też, natomiast ten temat akurat nie był poruszony.
Tak jak wspominałem, działajemy jako głośnik slash słuchawki bluetooth,
a więc podobnie jak z Ray-Banami też możemy po prostu wszystko na telefonie robić
i będziemy to w okularach słyszeć,
czego na przykład nie możemy powiedzieć o okularach N-Vision.
Kontynuując wątek optymalizacji z działaniem z asystentem Ally,
to tutaj mamy taką pierwszą dużą różnicę,
jak te okulary komunikują się z tym asystentem.
Generalnie wszystko odbywa się poprzez Bluetooth.
To rozumiem, że tutaj nie tworzymy jakiegoś hotspotu po Wi-Fi,
jak to było przy okazji okularów Envision Glasses.
No i właśnie na to tutaj też producent wraca uwagę,
że tutaj nie musimy bawić się w łączenie ręczne
z nowymi sieciami Wi-Fi.
Dopóki nasz telefon jest połączony z tymi okularami,
to po prostu wszystko będzie działać automatycznie.
Będziemy mieli połączenie z Ally i będziemy mogli z nim rozmawiać,
zadawać wszelkie pytania i po prostu wszystko będzie działać.
Natomiast to też, co za tym idzie, te okulary same w sobie
z żadnych aplikacji, funkcji nie mają.
Więc żeby okulary Ally działały, Ally Solos,
No to musimy być w pobliżu telefonu i ten telefon musi mieć dostęp do internetu.
Natomiast jeśli ten internet jest, zwłaszcza jeśli jest to internet 4G,
to Alive ma być bardzo responsywny.
W testach to nawet odpowiedzi przychodziły po niecałym pół sekundy.
No jak ja to zastosowałem na samej aplikacji, to z tym było różnie,
ale to pewnie jeszcze będzie wszystko optymalizowane.
Natomiast wiadomo, jeśli będziemy gdzieś w wolniejszym,
W miejscu, gdzie łącze ma większe pingi, czyli opóźnienia wolniejsze,
to te opóźnienia też będą większe.
Jeśli będziemy wysyłać dużo zdjęć, odpowiedzi będą przychodzić szybciej.
Jeśli tylko zadajemy pytania tekstowe, pytamy o pogodę,
może o kalendarz, bo też takie możliwości będą,
to odpowiedzi będą przychodzić szybciej.
Natomiast jeśli będziemy prosić go, żeby wykonywał skany, zdjęcia,
to ten czas może się wydłużyć.
Tutaj producenci celują w odpowiedzi od 3 do 6 sekund.
Nie jest to tragedia, ale będziemy musieli poczekać trochę dłużej.
A propos robienia zdjęć, będziemy mogli poprosić,
żeby Alaj nam opisał to, co widać wokół nas.
Takie opisy będą wygenerowane.
To nawet można robić z aplikacją na telefonie.
Będziemy mogli też poprosić o zeskanowanie dokumentu.
I tutaj, co ciekawe, pojawia się pierwsza znacząca różnica
pomiędzy tym, jak działa Alaya, jak działają inni asystenci nawet.
To działa różnie.
Nawet rozmawialiśmy o tym, jakie mieliśmy wrażenia na ten moment z Alaya,
ale to się pewnie będzie poprawiało.
Natomiast Nvision słynie z tego, i oni też to podkreślali wiele razy,
że zależnie od tego, jakie zadanie ma być wykonane,
czy to ma być synteza mowy, czy to szukanie w internecie,
czy to takie wizualne opisywanie, co się dzieje,
czy ma być po prostu zeskanowany tekst,
Będą do tego wykorzystywane różne modele.
Nawet rozmawiałem ze znajomym,
który niedawno dostał zwykłe okulary InVision Glasses
i prosił, żeby Alaj mu różne rzeczy skanował.
Widać, że tam nie był używany jakiś model językowy,
kiedy konkretnie prosił o to, żeby mu zeskanował tekst.
Tylko tam był jakiś OCR.
Widać, że to było po tym, że typowe dla OCRu literówki się pojawiały.
Natomiast co też cieszy,
Jeśli jakiś dokument przez Ally zeskanujemy,
poprosimy, żeby ten tekst zeskanował,
to będziemy normalnie w aplikacji mieli wynik zeskanowany,
dokument dostępny jako plik PDF.
Ally też doczeka się własnego trybu czytania.
Mieliśmy w aplikacji Envision AI.
W Ally teraz tego nie ma, mamy tryb do konwersacji.
Natomiast w przyszłości będziemy mogli dokumenty otwierać,
będziemy mogli wysyłać mu dokumenty z komputera
i poprosi, żeby Alain nam te dokumenty czytał.
Ale generalnie właśnie będziemy w stanie poprosić,
żeby nam jakiś dokument zeskanował
i później na telefonie będziemy mogli ten tekst przeczytać
albo gdzieś wyeksportować.
Możemy też poprosić o zwykłe zdjęcia
i one też nam na telefonie się później zapiszą,
także to będzie zrobione.
Natomiast ma być to narzędzie
głównie do celów dostępnościowych.
Mówię o tym dlatego, że tutaj też pojawiło się pytanie,
czy okulary meta mają dużo funkcji takich społecznościowych,
na Instagramie, wysyłanie zdjęć na Whatsappie do znajomych.
Tego w okularach Ally nie będzie, bo po prostu to nie jest ich główne zadanie.
Tak że jak ktoś takie rzeczy chce, to trzeba się wyposażyć w okulary Meta.
Tak jak mówiłem, będzie można się pytać o inne rzeczy.
Będzie integracja z kalendarzem, która też zresztą ma być dostępna
zarówno w wersji darmowej i w wersji pro.
I tutaj właśnie przechodzimy do takich różnic.
Więc na bazie tych różnic nie ma za dużo.
Z czasem tych różnic będzie więcej.
Natomiast nowa, darmowa wersja do testów nam daje całkiem sporo,
bo możemy praktycznie rozmawiać, ile chce.
Jedyne ograniczenie jest takie,
że jedna rozmowa jest ograniczona do maksymalnie 10 minut.
Z wersją pro tego ograniczenia nie ma,
więc jakbyśmy chcieli godzinami, dosłownie non-stop rozmawiać z Ally,
Będzie taka możliwość dostępna.
Będziemy mogli też więcej tych alajów sobie tworzyć.
Ja o tym ostatnio mówiłem, kiedy opisywaliśmy aplikację,
że po prostu możemy mieć różnych asystentów,
którzy mają różne tzw. promty, czy takie zadania wpisane,
czyli jeden asystent do opisywania, inny do tłumaczenia na przykład.
I możemy na start powiedzieć, że tutaj mamy powiedzmy
jednego asystenta Jana, który nam ma właśnie tłumaczyć
i mamy inną asystentkę, nie wiem, jakąś Maję.
jak np. która ma opisywać nam zdjęcia w jakiś konkretny sposób.
Możemy sobie takich alai tworzyć.
Mają być nowe funkcje w wersji Pro.
Bardziej rozbudowane czytanie i skanowanie dokumentów.
To będzie tylko w wersji Pro.
I ma być tryb wideo w czasie rzeczywistym.
Jonathan zapytał o to, co wiele osób ciekawe,
Jeśli ktoś korzystał z trybów wideo, czy to właśnie w czasie GPT, czy w Remnayu,
to wiecie, że generalnie te tryby działają tak, że one są na żywo,
natomiast my musimy zadać pytanie i wtedy na to pytanie odpowiedź dostaniemy.
Ale nie możemy na przykład powiedzieć,
powiedz mi, kiedy akurat podjedzie autobus o tym konkretnym numerze.
On nawet tam powie, okej, dam ci znać, ale tak naprawdę on się do nas nie odezwie
do momentu, kiedy my znów nie zadamy pytania.
Natomiast tutaj właśnie było wręcz na ten temat rozmawiane.
Dick Artik zapewniał, że ten tryb wideo,
który pojawi się w Ally, w tej wersji pro,
ma faktycznie być trybem proaktywnym,
czyli będzie w stanie, jeśli poprosimy go,
żeby coś monitorował i dał nam znać, jak coś się zmieni,
to ten tryb wideo będzie nam w stanie to zrobić.
Jeśli tak, to myślę, że faktycznie będzie rewolucja,
bo obiecywał to GPT, obiecywał to Gemini.
Na ten moment te funkcje się nie pojawiły,
ale myślę, że nawet to dla wielu osób może spowodować,
że to będzie całkiem, myślę, ciekawy produkt.
Skoro rozmawiamy o tej wersji Pro,
to ona finalnie, tak pisze na stronie, ma kosztować 200 dolarów rocznie,
więc niestety nie mało.
W aplikacji na razie widziałem cenę 100 dolarów rocznie.
Natomiast jeśli ktoś zdecyduje się na zakup tych okularów w przedsprzedaży w tym momencie,
to też dostaniemy rok w Ally Pro w gratisie.
Po tym czasie chyba nie, do końca nie jestem pewny, ale tak czytając stronę odnoszę wrażenie,
że tak to ma wyglądać.
Teraz przenosząc się do aplikacji Envision, o której ciągle powracamy do tego,
Dostaliśmy wyraźnie, że aplikacja ma zliknąć.
Szybko producent zapewniał, że jeszcze nie.
Kartik znów zapewniał nie.
I to jeszcze przez długi czas.
Mówi się o tym, że na początku przyszłego roku
cały czas aplikacja Envision AI będzie.
Zapowiadania się pojawiły tylko dlatego,
że chcieli, żeby ludzie naprawdę potestowali Ally,
bo on jest po prostu ciekawy.
Może trochę niefortunny był tekst tych powiadomień.
i tak to można podsumować, ale są świadomi tego,
że Alaya jeszcze niektórych funkcji nie ma.
Właśnie był poruszony temat tego trybu Instant Text,
czytania małych ekranów.
On działał lepiej kiedyś niż teraz,
ale cały czas jest i dużo osób sobie go ceni.
I znów tutaj dostaliśmy zapewnienie,
że to cały czas będzie.
I o to się nie musimy martwić,
a też pomału te wszystkie funkcje,
Jest właśnie tutaj, jeśli chodzi o Instant Text, funkcje offline,
które nie będą wymagać od nas tego,
że będziemy musieli zadawać jakieś pytanie asystentowi,
i to będzie przez Internet szło.
To też tu Ally ma trafić, więc będziemy mogli też z poziomu Ally
finalnie włączyć taki tryb Instant Text i z niego korzystać,
nawet jeśli Internetu nie mamy.
I dopiero wtedy, kiedy te wszystkie funkcje zostaną przeniesione,
mówię, to może być nawet po wrzątek przyszłego roku,
No to dopiero wtedy aplikacja Envision AI zostanie oficjalnie wycofana.
Tak że jeśli polegacie na tej aplikacji, to raczej myślę, że nie ma o co się martwić.
Jeśli chodzi o stare okulary Envision Glasses, czyli te oparte na Google Glass,
tutaj też nie mamy o co się martwić, bo one też będą długo wspierane,
zarówno jeśli chodzi o wsparcie dla funkcji związanych z Ally,
które też cały czas będą działać.
Mogą czasami działać trochę gorzej, o tyle że te okulary Google Glass
mają gorsze kamery, i to ponoć znacznie,
ale i tak dają całkiem w odpowiednich sytuacjach sensowne wyniki.
Natomiast one też się trochę w niektórych aspektach różnią.
Taką największą różnicą jest to,
między okularami, oprócz wagi, baterii, o tych rzeczach, o których mówiliśmy,
to Envision Glasses mają cały czas swoje menu,
po którym możemy nawigować na tym gładziku,
który jest na tym urządzeniu, więc po cichu możemy wejść
w jakiś tryb Instant Text, jakieś tryby offline
i z nich korzystać.
Ally? No, wszystko robimy na głos, na okularach Ally.
Gartik stwierdził, że to jest w sumie dla nich taki plus,
bo interfejs jest prostszy.
No, funkcji offline okulary Ally nie mają i pewnie mieć nie będą,
przynajmniej na tych momentach się na to zanosi,
no bo oprogramowanie jest dużo bardziej okrojone,
Tam po prostu mamy te kamery, mikrofony, akcelerometry i to tak naprawdę wszystko,
a cała reszta dzieje się na telefonie, więc jeśli ktoś czeka,
żeby te okulary dostały pełne funkcje offline, to niestety tego nie będzie.
Jeśli też komuś zależało na tym, żeby to udało się po cichu uruchomić
w jakimś miejscu, żeby dyskretnie sobie jakiś tekst skanować,
to niestety też przez to, że takiego typowego menu nie mamy,
No to tego nie zrobimy, to też może powodować problemy dla osób,
które mogą mieć problemy ze słuchem.
Kolejna rzecz, na którą zwrócił uwagę Jonathan Mosen,
ale zresztą nie tylko, to to, że do okularów InVision
mogliśmy sparować dowolne słuchawki czy aparaty słuchowe po Bluetooth,
a w okularach Solos po prostu tego się zrobić nie da.
I mówię, że pracują na tym,
ale tutaj ograniczenia sprzętowe mogą spowodować to,
że to nie będzie możliwe.
I przez to te okulary nie będą tak pożyteczne np. dla osób z wadą słuchową.
Z drugiej strony, dla tych, którzy chcą mieć takie okulary, które jeszcze działają właśnie jako słuchawki Bluetooth,
no to okulary Solo są lepsze od okularów Envision.
A propos jeszcze okularów Envision, czy one będą jeszcze sprzedawane na ten moment?
Tak, ale to już są jakieś wyprzedaże ostatnich zapasów.
Niebawem ta sprzedaż się zakończy, więc jeśli ktoś właśnie chciałby takie okulary,
które faktycznie mogą działać w pełni autonomicznie,
to lepiej je kupić teraz niż później.
Natomiast nawet kiedy ta sprzedaż się skończy,
to użytkownicy nie mają się czego obawiać,
bo jeszcze przez długi czas, przynajmniej według Kartika,
to wsparcie ma być kontynuowane.
To są okulary Ally Solos Glasses.
Przedprzedaże na ten moment kosztują około 2100 zł w Polsce.
Finalna cena została ustalona w dolarach
na 700 dolarów, czyli około 2,5 tysiąca.
No z VAT-em pewnie będziemy tutaj pod 3 tysiące podchodzić.
No, produkt na pewno ciekawe,
zwłaszcza jeśli alay będzie cały czas się rozwijał.
Wydaje mi się, że to też ważne.
Na ten moment, kiedy cały czas czekamy na meta AI,
to mogą być okulary,
które w polskich realiach mogą sprawdzić się
znacznie lepiej niż okulary meta.
A jeśli faktycznie dojdą do niego te tryby live,
w tryb na żywo, który będzie nam w stanie monitorować sytuację
i to będzie działało sensownie,
to możemy mieć ciekawy hit dla nas.
Ale jeśli ktoś szuka okularów,
które byłyby w stanie jakkolwiek nawet nam po polsku odpowiedzieć,
z czym w przypadku okularów metan jest ciężko,
to musimy się wiplinami bawić,
a i tak będziemy odpowiedzi dostawać po angielsku,
to to może być produkt, z którym warto się zainteresować.
I generalnie tak myślę, że jeżeli ktoś w ogóle rozważa zakup tych okularów, to dobrze, żeby sobie przetestował tego asystenta od Envision, Ally, żeby w ogóle wiedział, jak to działa i na co może liczyć, używając tych okularów, bo no to będzie jedno z drugim połączone, więc fajnie będzie sobie to już po prostu wiedzieć, na co można liczyć.
Ale rzeczywiście, i tu się zgodzę, to naprawdę dla nas może być bardzo ciekawa oferta, tak na polski rynek.
A jak to będzie wyglądało, gdzie to będzie w sprzedaży, czy ktoś na przykład z polskich dystrybutorów będzie to sprzedawał?
Sam jestem ciekaw i sam jestem ciekaw tej finalnej ceny.
Tymczasem zaglądamy na Whatsappa, tu mamy dwie wiadomości od Sylwestra.
Mam kilka informacji dla was. W sprawie Macbooka, nowego Macbooka, ma wyjść Macbook za 2200 zł.
Na YouTubie trzeba poszukać ten filmik i informować o Intelu, że Intel został zainwestowany przez Donalda Trumpa
w zakresie 40 miliardów i Intel wyjdzie znowu na prowadzenie i że RME i te procesory AM, które są w Apple’u,
mogą znowu przegrywać, że Intel będzie dogadywał się z Apple’em, żeby tańsze komputery
Na YouTube ten filmik znalazłem i właśnie chciałem się podzielić z tą informacją.
Druga informacja, kolega mi dał link do usług FaceTina, które jest na iOS-ie,
ale już na stronie producenta FaceTina, nie mogę znaleźć tego linku, bo zgubiłem,
ale na stronie FaceTina jest chyba napisane, że już wchodzi na Androida i na Windowsa, na PeCeta.
Także nie wiem, ja dwa tygodnie tego pliku szukam, który dostałem od kolegi. Nie wiem, co się dzieje, ale może znajdę ten plik na komputerze.
Także jeżeli chodzi o FaceTime’a, tego komunikatora, on jest podobny do Whatsapp’a.
Nie tylko na Apple’owskich urządzeniach, ale także na Androidzie i na Windowsie będzie.
Jak znajdę, to Wam puszczę tego linka.
Ja za te okulary bym nie dał nawet 100 zł.
No cóż, jak niejednokrotnie mówiłem, każdy zarządza swoim własnym budżetem i deklaruje gdzieś tam, powiedzmy, co jest dla niego ważne, bądź też mniej.
Dla mnie, no, okulary wydają się interesujące, a jak to będzie w praktyce, zobaczymy.
Co do Facetime’a, to ja mam wrażenie, że Sylwestrowi chodziło o to, że można wygenerować link.
i za pomocą tego odnośnika połączyć się z jakiejś przeglądarki na przykład, to to już ta funkcja jest od pewnego czasu.
Jest, to chyba dwa lata bodajże, czy trzy? Dwa? Trzy? Jakoś tak.
Chyba tak, też koło tego.
Tak, więc to już jest Sylwestrze, to już po prostu jest to możliwe, aczkolwiek mam wrażenie, że bardzo mało używane.
Ja sobie z tego korzystałem kiedyś bardzo namiętnie, jak
przeprowadziłem swego czasu właśnie szkolenia zdalnie.
To powiem szczerze, że używałem tego bardzo często.
Czasem miewaliśmy problemy z kursantami, natomiast
w dużej mierze przypadków to się jednak sprawdzało.
Tylko co warto zaznaczyć, jeśli chodzi o udostępnianie ekranu,
Nie działa, to znaczy na pewno ta druga osoba ekranu udostępnić nijak nie może z tego poziomu interfejsu webowego.
Natomiast z tego co ja kojarzę, ja też nie mogłem, to znaczy też zawartość nie była tak naprawdę tej z drugiej strony prezentowana,
więc no tutaj są tego typu problemy, ale tak jeśli chodzi o komunikację, czy to jeden na jeden, czy to grupową, to sprawdzało nam się to całkiem fajnie.
Dajcie znać, jeżeli korzystacie z Facetime’a, na przykład właśnie w ten sposób.
Może macie jakichś znajomych, albo rodzinę, z którą w ten sposób rozmawiacie.
Czekamy na Wasze komentarze.
Ano i chyba airplane działa.
Ano też. I jeszcze a propos komentarzy, to Borys pyta, czy my nadajemy dziś na YouTubie i na Facebooku.
Tak, nadajemy i nawet sprawdziłem, działa wszystko.
Ja powiadomienie na YouTube’a dostałem.
Tak, a Borys na przykład napisał, że na Facebooku nie pojawiło się powiadomienia. A to wredny Facebook, ale no właśnie, no niestety, to tak jest, że te powiadomienia to się czasem pojawiają, czasem nie i dlatego ja cały czas tak sygnalizuję,
że te nasze transmisje na YouTubie i na fejsie, one są takie trochę eksperymentalne. To znaczy one już… ten eksperyment trwa długo, natomiast
To jest najpewniejszą opcją do słuchania nas, to jest zawsze przekaz w tyfloradio.radio.tyflopodcast.net.
Wchodzicie tam przeglądarką albo wrzucacie to do waszego ulubionego odtwarzacza multimediów i po prostu wam działa i już.
Maćku, to teraz Blind Shell. Aktualizacji się doczeka kolejnej.
A doczeka się i to zdaje się pierwsze aktualizacje już w tę środę, tzn. jutro.
I tak, no generalnie aktualizacje będą dla Blind Shell Classic 2 i 3.
Aplikacje, tzn. powiadomienia z aplikacji firm trzecich.
Szczerze mówiąc, ja myślałem, że to było, ale skoro nie ma, no to okej.
No i w każdym razie teraz będą. Coś na kształt powiadomień PUSH tak naprawdę ma być dla tych aplikacji.
Po zainstalowaniu tej aktualizacji znajdą się te opcje w opcjach… zainstalowane pakiety, opcje zaawansowane i tam będzie sobie można tym zarządzać.
Zdaje się, tam piszą, że to jest włączone, ale czy tak będzie, nie wiem.
Naprawiono wyświetlanie nazw kontaktów w wiadomościach.
Udoskonalono wymowę znaków na klawiaturze brytyjskiej.
I co mamy do trójki?
Opcja włączenia Wi-Fi Calling, czyli właśnie połączeń przez Wi-Fi w ustawieniach.
Funkcja domyślnie jest wyłączona, jeśli dany operator ją obsługuje no to opcja się pojawi w tych ustawieniach.
Jeśli operator nie obsługuje no to wówczas się ta opcja nie pojawi.
Funkcje wykonywania zrzutów oraz nagrywania ekranu dodane do szybkiego menu.
Będzie możliwe wykonywanie zrzutów, a bardziej nagrań tak naprawdę do godziny.
Kliki będzie można obejrzeć w obrazach lub odtwarzaczu wideo i będzie można to udostępnić.
I tam jest jeszcze adnotacja, że w przypadku udostępniania filmów należy przesłać
aplik. Jeden dla obrazu, drugi dla dźwięku.
Funkcja ta pomoże również szybciej rozwiązywać zgłoszenia klientów, ponieważ będą mogli
nagrać, co dzieje się na ich telefonach.
Dalej, zaktualizowano głos słoweński.
Dotyczy wyłącznie klasyka trójki, klasyk dwójka bez zmian.
Zachowa oryginalną wersję tam, która jest dotychczas.
Poprawiono stabilność Luny, tego ichniejszego asystenta AI.
Stabilność i udostępnianie tekstu.
No i mamy harmonogram aktualizacji jeszcze do tego.
Classic 3 otrzyma aktualizację, tak jak mówiłem, w środę, czyli jutro.
Natomiast Classic 2 zostanie zaktualizowany w poniedziałek 25.
No i to tyle. Tam jeszcze w mailu były podane ceny tych telefonów i tak dalej, ale myślę, że tego już czytać nie będziemy.
No i to tyle. Chociaż jeszcze się może, skoro jestem przy głosie, do tego MacBooka odniosę, o którym Sylwester mówił, bo to na razie takie plotki, ploteczki.
Natomiast, natomiast coś się mówi, że ma być 12-calowy, w zasadzie 12,9 cala MacBook z procesorem z iPhone’a, to znaczy procesor A18 Pro.
No i generalnie ma obsługiwać właśnie funkcję Apple Intelligence, ma być właśnie z racji tego procesora, to ma być właśnie sporo tańszy. No i na razie w sumie tyle wiemy.
Ale raczej nie będzie to Intel, bo to musiałby być kolejny zwrot technologiczny.
Intel to na pewno nie będzie, bo nawet przecież macOS 26 będzie ostatnim macOSem, który wyjdzie na Intel.
Tak, dokładnie.
Także tu raczej nie w tę stronę.
bardziej jeśli to ten A18 Pro.
Co do samego Intel’a, to zanim oni będą
mogli walczyć z ARM’em to jeszcze też
muszą AMD pobić, no bo po prostu
ich najnowsze procesory, od niedawna
zgłębiałem temat, po prostu wypadają
gorzej w testach, po prostu są
wolniejsze od nowych Ryzenów nawet.
Jak ktoś nie chce ARM.
No i chyba 2999, no ale to już, że tak
powiem, jak Apple ogłosi to będziemy to
Dokładnie. Kiedyś mówiło się, że Intel jest takim procesorem stabilnym, że AMD to się tam gdzieś tam wiesza i działa gorzej, ale to dawne czasy w dzisiejszych czasach, to rzeczywiście AMD naprawdę bardzo, bardzo dobrą robotę zrobił i Intel ma problem generalnie.
Jakoby się wykrwawia i się dłuży coraz bardziej i tam jakieś właśnie filmiki na YouTubie są na ten temat.
Są te inwestycje, po prostu próbują ratować firmę na wszelkie sposoby.
A jak to będzie? No cóż, to zobaczymy.
Tymczasem kolejne tematy.
To teraz proponuję, Pawle, żebyś ty nam powiedział o aplikacji, która nazywa się Scores.
I do czego ta aplikacja służy?
I już jestem. Aplikacja jest na desktopy i w Pytonie,
Czyli jak wiele aplikacji nam dedykowanych, które są gdzieś tam dostępne albo nawet pisane z dostępnością jako głównym założeniem,
przez osobę, która już na rzecz dostępności działamy chyba też nieraz.
Cytowaliśmy posty z bloga Kelly L. Ford i to właśnie Kelly L. Ford tworzy aplikację Scores.
A Scores jest aplikacją do podglądania wyników różnych rozgrywek sportowych.
Zwłaszcza tych amerykańskich, czyli mamy tu np. MLB, baseballa.
Mamy NFL, czyli futbol amerykański i jakieś tam dalsze sporty,
które gdzieś tam głównie za oceanem są rozgrywane.
Wiem, że tutaj wśród słuchaczy mamy amatorów sportów wszelakich.
Część z tych rzeczy, z tego co kojarzę, dobrze kojarzysz?
W związku z czym może ktoś sobie po prostu te rzeczy też lubi analizować, a mamy tam dostęp do wszystkiego, bo mamy na przykład analizę konkretnych rozgrywek, ruch po ruchu, mamy statystyki, informacje o drużynach, mamy nawet jakieś kanały z aktualnościami na temat różnych dyscyplin sportu.
Ale taką funkcją, która ma aplikację wyróżniać spośród wszystkiego innego jest audioanaliza meczy, czy tam rozgrywek bejsbolowych.
Czyli za pomocą dźwięku, przypuszczam, że to jest coś takiego jak ten system Action Audio do tenisa stołowego.
No to właśnie tutaj będzie rozgrywany bejsbol.
Będziemy słyszeli, pewnie w jakimś dźwięku, takim stereo,
jak sobie w danej rozgrywce piłeczka leciała w powietrzu,
w którym miejscu upadła itd.
I w ten sposób możemy sobie takie rozgrywki śledzić.
Aplikacja jest na GitHubie, więc jest darmowa, open source.
Można sobie ją pobrać.
Cały czas się rozwija.
W zeszłym tygodniu się ukazały do niej znaczące aktualizacje.
Jeżeli jesteście fanami sportu, niekoniecznie tego najbardziej oczywistego i popularnego tu na kontynencie europejskim,
no to możecie sobie po aplikację Scores sięgnąć. A kto wie, może i z czasem zostaną dodane nowe dyscypliny sportowe.
No wszystko zależy też od tego, do jakich API jest dostęp, żeby też było z czego szyć i było co w tym programie zaimplementować.
Fajnie, że ktoś się do tego typu aplikacji wziął.
Miejmy nadzieję, że będzie ona jak najdłużej społeczności służyć.
Oby tak właśnie było.
A skoro o programach, które społeczności niewidomych służą wiernie i dzielnie,
to NVIDIA. NVIDIA, który cały czas się rozwija i mamy nową stabilną wersję,
Nową wersję przeznaczoną do testów, a o tym co nowego w tych programach opowie Piotr.
Tak, dzieje się, bo w ciągu właśnie tylko tego tygodnia pojawiła się zarówno wersja stabilna NVIDIA 2025.2, jak i, tak jak wspominał Michał, pierwsza wersja beta 2025.3.
Także ten tempo rozwoju to jest całkiem zawrotne, myślę, że możemy spokojnie powiedzieć.
Więc może zacznijmy od tej wersji stabilnej. Oczywiście my o niej mówiliśmy bardzo szczegółowo,
czytaliśmy listę zmian, kiedy te pierwsze wersje beta się pojawiały, więc nie będziemy teraz przytaczać tych zmian szczegółowo.
Natomiast dla tych, którzy nie chcą bawić się w wersje testowe, a macie jak najbardziej z tego prawo,
No bo wersje testowe czasami lubią różne błędy powodować,
więc czekajcie, kiedy ta wersja 2825.2 stanie się bardziej stabilna.
Myślę, że było jak najbardziej na co czekać,
bo co tutaj możemy powiedzieć o tej wersji?
Zostały dodane nowe skróty klawiszowe do nawigacji po nagłówkach
od poziomu 7 do 9 w internecie,
Nie, bo można takie definiować.
Jeśli otworzymy okienko wyszukiwania lub listę elementów,
to nam nie przełączy się profil konfiguracyjny,
więc jeśli sobie zrobiliśmy osobne ustawienia dla przeglądarek,
może jakiś inny głos, inne ustawienia szczegółowości dla dotkliwości,
to te ustawienia cały czas będą aktywne w tych oknach.
Komu wiadomienia typu ładowanie zakończone w Microsoft Edge
nie będą nam przerywać czytania.
Też myślę fajna sprawa, bo czasami współczesne strony lubią się w tle przeładowywać
i pewnie tutaj to powodowało problemy.
W Wordzie, kiedy przełączamy się pomiędzy widokiem strony a widokiem konspektu,
to też nam MVD nie będzie o tym informował.
Oznajmianie tabel w Brightu zostało poprawione też tutaj w Excelu.
Na Windowsie 11 MVD nie będzie dwa razy czytał emoji w panelu wyboru emoji.
I co to jeszcze z komunikatów takich najważniejsza?
Wydaje mi się zmiana w tej wersji, mianowicie po prostu te błędy z tym,
że MVDA czasami potrafił się wysypać nawet na cały komputer,
zawiesić w menu start, albo po prostu tego menu start w Windows 11 nie czytać.
To też już zostało naprawione, to jest chyba najważniejsza zmiana,
więc nawet jeśli macie Windows 11, to tylko dlatego warto MVDA
sobie zaktualizować, jeśli tego nie zrobiliście,
Bo ta wersja beta spokojnie, nawet stabilna, przepraszam,
dodatków nam nie popsuje.
To nie jest aktualizacja, która nam psuje jakieś dodatki.
Ponadto, jeśli użyjemy też tutaj na Windows 11
skrótów Windows, ciałki góra, dół, prawo, lewo
do maksymalizowania, minimalizowania, ustawiania okien,
będą one oznajmiane.
I akurat to nie jest wspierane w języku polskim,
ale w innych językach ta funkcja Voice Access,
czyli taki pełnoprawny interfejs z rozpoznawaniem mowy,
który możemy sterować całym komputerem,
też teraz jest przez MVDA wspierany.
Jeśli otworzymy panel korekty,
chcemy jakieś słowo poprawić,
to MVDA nam o tych komunikatach będzie informował.
Zostały dodane opcje, które mogą spowodować,
że MVDA nas poinformuje o języku strony,
jeśli syntezator jej nie wspiera.
Jeśli mamy ustawiony syntezator,
który nie wspiera języka chińskiego,
a wejdziemy na stronę, która jest w języku chińskim,
to MVDA o tym powie, że czytamy chiński tekst.
Mamy też skrót domyślenie przepisane, z tego, co pamiętam,
w którym możemy język danego tekstu sprawdzić.
To język definiowany przez autora, który nie musi być prawdziwym językiem.
Nie zawsze autorzy o to dbają.
Mamy wsparcie dla nowych monitorów od RLS-u, bardziej na Stany Zjednoczone.
I też mamy wsparcie dla przywoływania kursora poprzez dotykanie komórek
na wielowierszowym monitoru Monarch od American Printing House.
Nowa wersja bibliotek Libri została dodana i co do tym idzie,
mamy nowe tablice hebrajskie i rosyjskie, sześciopunktowe
i nowa skrótowa tablica tajska została dodana.
E-Speak NG też został zaktualizowany i kilka też nowych języków do E-Speaka się pojawiło.
Miałyśmy też jakieś pomniejsze poprawki w notatniku Windows 11,
w obsłudze ekranów dotykowych i myszki i przeglądarki Google Chrome.
Także dużo zostało wprowadzone w tej wersji stabilnej.
Jeśli jeszcze nie macie tej wersji 2025.2, to warto sobie w tą aktualizację pobrać,
Tak mówiąc, zwłaszcza jeśli jesteście na Windowsie 11,
bo to niedziałające menu start naprawdę było irytujące
i w końcu to już niedziałający menu start nie jest,
a faktycznie zaczęło z powrotem działać.
Natomiast jeśli jesteście ciekawi, co będzie w MVDA,
a może nawet chcecie po prostu sobie potestować,
co będzie w MVDA i ewentualnie jakieś błędy wyszukiwać,
zanim one trafią do szerzej grupy użytkowników,
No to pierwsza wersja beta, NVIDIA 2025.3, również została udostępniona.
No to jest kilka ciekawych zmian, natomiast na pewno wydaje mi się,
że to jest drobniejsza aktualizacja niż ta poprzednia, co nie znaczy,
że nie mamy w niej wartościowych zmian.
Bo, jak tutaj mamy informacje wskrótowe, mamy w tej aktualizacji
poprawki dotyczące dostępu z danego głosu w Snappy 5 Braila
oraz addon Stora, czyli sklepu z dodatkami.
Więc myślę, że po prostu przejdziemy sobie do czytania tych nowych funkcji.
Sklep z dodatkami, tutaj mamy trzy nowości.
Dodatki możemy teraz sortować po minimalnej, testowanej wersji MVA,
czyli jaką wersją MVA najnowszą developer danego dodatku ten dodatek testował.
No i data instalacji, to wiadomo, kiedy dany dodatek został zainstalowany.
Minimalna wersja MVD i ostatnia wersja testowana, to będą wyświetlane w obszarze ze szczegółami dodatku.
I tak samo data instalacji będzie wyświetlana też dla dodatków zainstalowanych spoza Addon Store’a.
Tutaj też po prostu ta informacja będzie się pojawiać.
Została dana nowe polecenie, domyślnie nieprzypisane,
które pozwala do zdanego komputera wysłać kombinację Ctrl-Alt-Delete.
Więc jeśli często nam się zdarza potrzebować tego polecenia,
to możemy sobie przypisać do niego skrót.
I też bardzo fajna funkcja, której chyba w emulacji nie było,
a to może być przydatne, zwłaszcza jeśli komuś na przykład pomagamy.
Została dana nowa opcja, która powoduje,
że jeśli nie sterujemy zdalnym komputerem,
przełączyliśmy klawiaturę z powrotem na nasz komputer,
to ten zdalny komputer zostanie automatycznie wyciszony
do momentu, kiedy nie przełączymy się na ten zdalny widok.
Bardzo fajna sprawa, jeśli komuś zdarzyło się wrócić do naszego komputera,
zapomnieć o tym i nagle zaczyna coś gadać
i tak zastanawiamy się, co się dzieje, co to gada.
Możemy teraz po prostu zrobić tak,
tak, żeby MVDA nam automatycznie z danych komputer po prostu wyciszał.
Następnie zmiany. Aktualizacje bibliotek.
I tutaj mamy nowego ESP-a NG,
który dodaje poprawki dla języka perskiego.
I mam aktualizację bazy symboli Unicode,
czyli tutaj jakieś nowe emoji będą teraz przez MVDA czytane.
Następnie brail.
I tutaj mamy też kilka zmian.
Jeśli zawijanie w raju jest włączone, wszystkie komórki będą wykorzystane,
jeśli ostatni znak to spacja.
MVDA nie będzie teraz automatycznie resetował tablicy
na opcje automatyczne, jeśli zmienimy język MVDA.
I sterownik do monitora wiole wierszowego,
DotPad stwiera automatyczne wykrywanie po USB.
Następnie w Office,
jeśli zaznaczenie obejmuje więcej niż jedną komórkę,
naciśnięcie Tab lub Enter, żeby przenieść aktywną komórkę,
będzie po prostu MVC czytał nową aktywną komórkę,
kiedy tych skrótów użyjemy.
W aplikacjach do wiersza poleceń
Na Windowsie 10 wersji 16.07 najnowszych obliżanie zmian w tekście
będzie teraz wykonywane przez MVDA wewnętrznie,
a nie w zewnętrznym programie,
co generalnie powinno poprawić wydajność.
To by się w terminale przydało, bo faktycznie mogło się zdarzyć tak,
że MVDA lubił się zawiesić w wierszu poleceń,
zwłaszcza jeśli dużo tekstu się pojawiło.
Miejmy nadzieję, że te zmiany też po prostu powodują,
że to będzie działo faktycznie wydajniej
i MVA już nie będzie się tak zawieszał.
Okienko do połączenia z danego dostępu będzie teraz pamiętało
ostatnio wprowadzony typ serwera i lokalny port,
więc nie będziemy musieli wpisywać tych informacji znów.
I następnie poprawki błędów, poprawki w mowie.
Poprawiono zbyt agresywne usuwanie ciszy dla niektórych głosów w SAPI,
więc czasami po prostu powodowało, że głoski były ucinane.
Teraz już nie powinno tak być.
Podobnie MVDA się zawieszał z niektórymi głosami SAPI 5.
To też już nie powinno mieć miejsca.
I też problem znów z głosami SAPI 5, tym razem z głosami Eloquent,
że MVDA czasami z tymi głosami się nie uruchamiał prawidłowo.
Po prostu głos przechodził do głosu one-chore
i po prostu musieliśmy ręcznie później z powrotem na tego eloquentza się przełączać.
I poprawiono jakieś nienaturalne, nienaturalnie długie cisze.
Z niektórymi głosami sobie wpięcił one-chore.
Tutaj też to pewnie było związane z tym usuwaniem ciszy.
Zdalny dostęp.
Poprawiono niedziałającą mowę.
Jeśli zdany komputer nie miał żadnych urządzeń wyjściowych,
jakichś kart dźwiękowych, czyli pewnie jakieś Windows Serwery,
przepuszczam, gdzieś VPS-y jakieś pewnie miały z tym problem.
I to już nie powinno być problemem generalnie.
I poprawiono błąd, że sesja zdanego dostępu przestała działać,
jeśli połączenie zostało przerwane w czasie włączenia samego.
Naprawiono błąd, że MVDA nie czytał całych wyrażeń matematycznych.
Jeśli na linii było więcej niż jedno wyrażenie,
to po prostu tylko pierwsze było widoczne.
Teraz już to nie powinno być miejsca
i wszystkie będą zarówno czytane, jak i wyświetlane w brajlu.
Poprawiono wsparcie dla akapitów w aplikacjach Java,
znaczy wpisanych w Javie właściwie.
Poprawiono wizualne podkreślenie niedziałające na liście kontaktów w Outlooku.
Rozumiem, że tu chodzi o klasycznego Outlooka.
Przenośna kopia uruchomiona zaraz po jej utworzeniu będzie teraz prawidłowo korzystać ze swojej konfiguracji,
a nie tej, która jest w wersji zainstalowanej.
No i mamy zmianę dodatku wrapperów, ale myślę, że to już sobie odpuścimy,
no bo jak ktoś pisze dodatki, to będzie mógł sobie to sprawdzić.
Ja ze strony użytkownika mogę powiedzieć tyle, że podobnie jak ta wersja 2025.2, o której mówiliśmy,
2025.3 też nie powinna nam popsuć żadnych dodatków.
Gdyby popsuła, no to właśnie przez to, że to jest beta, to jest dobry moment, żeby to ewentualnie zgłosić zarówno do NvA,
Tak nie powinno być, jak i ewentualnie też do autorów danych dodatków.
Tak że jeśli korzystacie z NVDA,
to warto sobie tę wersję stabilną poprać,
zwłaszcza jeśli macie Windowsa 11, bo tak mówiąc, warto.
A jeśli lubicie testować, to też ta pierwsza wersja,
beta 2025.3, zapowiada się ciekawie.
Może nie ma tu jakichś bardzo dużych nowości,
ale np. to wyciszanie z danych komputerów, jeśli ich nie kontrolujemy,
No to ja na pewno będę z tej możliwości dosyć dużo korzystać.
No to zdecydowanie może być fajna opcja. Ja sobie zaktualizowałem do najnowszej, stabilnej wersji NVIDII i muszę powiedzieć, że
rzeczywiście, menu start to po prostu odżyło. W końcu zaczęło działać to normalnie, więc jeżeli się jeszcze wahacie, czy to zrobić, to na pewno warto.
No, tu zgadzam się z Piotrem. Ważna rzecz, no niestety, dalej jest taki problem, na który tu myślę, że warto uczulić tych, którzy jak sobie zaktualizują jakąś aplikację, to potem zaczynają się martwić, że coś nie działa.
Otóż NVIDIA cały czas ma problem, przynajmniej z niektórymi aplikacjami, po aktualizacji i ostatnio zauważyłem, że Zoom do tego doszedł.
Zgadza się. Zwłaszcza dla osób, którym zdarza się może nie pisać w języku obcym, ale czasami chcieć wpisać poprawnie jakąś nazwę obcojęzyczną.
Zwłaszcza czyjeś nazwisko, jakiś zagraniczny tytuł czegoś,
czy z jakiegoś innego powodu słowo, które zawiera znak, literę,
której nie ma w naszym polskim alfabecie
i której nie ma też konsekwentnie w naszym układzie klawiatury.
I tu z pomocą przychodzi nam dodatek Accent Manager.
I właśnie sobie wyszukuję jego link.
autorstwa Derecka Rimmera, który już niejeden dodatek do NVDA stworzył i ja spróbuję tu z Ridney przeczytać, o co tutaj wszystkim chodzi.
Dodatek Accent Manager dla NVDA dostarcza wygodny sposób,
aby wstawiać znaki diakrytyczne,
nie używając międzynarodowej klawiatury Windows.
Szczerze mówiąc nigdy nie używałem międzynarodowej klawiatury Windows.
Rozumiem, że to jest taki układ, który ma wszystkie znaki w sobie,
tylko trzeba jakieś odpowiednie kombinacje wcisnąć,
który jest trudny w użyciu i podatny na przypadkowe zmiany układu.
Ten dodatek jest zwłaszcza użyteczny do wpisywania nazw oraz słów
ze znakami diakrytycznymi, pochodzącymi z różnych języków.
Jakież ma funkcje ten dodatek?
Wstawianie znaków akcentów, takich jak akcent ostry,
Tak zwany acute, tilt, graph itd., czyli tylda, akcent ciężki, itd.
Dla powszechnych samogłosek oraz litery N,
przełączanie się między typami tych właśnie akcentów
za pomocą skrótów klawiszowych.
Przełączanie
między dużymi a małymi literami
dla znaków diakrytycznych.
Warstwowe wprowadzanie, czyli wybieramy typ akcentu,
potem wpisujemy znak, któremu chcemy dodać ten akcent
oraz informacja zwrotna za pomocą mowy
Dla wykonywanych czynności oraz błędów.
Jest też buforowanie, czyli możemy zbudować sobie ciąg znaków właśnie diakrytycznych,
zanim je wyślemy dalej, no bo to może być przydatne, jak są jakieś kombinacje znaków
i ma to znaczenie w danym języku.
Można też usuwać ostatni znak w buforze.
Jak używamy tego dodatku?
Włączamy dodatek Accent Manager, naciskając NVDA i slash, aby wejść w tryb managera akcentów.
Wybieramy typ akcentu, typ znaczka, który chcemy dodać.
Wybieramy to z znaczkami góra-dół, aby przejść między typami znaków.
Czyli ostry, tylda, ciężki.
Możemy przełączyć też za pomocą skrótu NVDA C
między dużymi i małymi literami.
I następnie wprowadzamy już samą literę,
której ten akcent ma dotyczyć.
Wpisujemy właśnie A, E, I, O, U lub N.
I do bufora zostanie dodany znak.
Jeżeli nie będzie poprawna taka kombinacja, no to się dowiemy, że nie jest poprawna.
Usuwanie ostatniego znaku.
Naciskamy Backspace, żeby usunąć z bufora ostatnio wpisany znak, a wysyłamy znaki
naciskając Escape i wyłączając po prostu dodatek.
I to zostaje wysyłane za pomocą emulacji
wejścia Braille’a.
Tak samo też się stanie, jeżeli
przeniesiemy fokus z tego
menedżera akcentów.
No i tu mamy na przykład przykład, mamy
tu przykładowe takie środowisko
pracy, jakby to mogło działać.
Naciskamy nvidia i slash, włącza się
menedżer akcentów, wybieramy
strzałką w dół tylde, naciskamy
Dodajemy N i dodajemy w ten sposób N z tyldą do bufora.
Potem naciskamy NVDA C, żeby włączyć tryb dużych liter.
A potem naciskamy A, żeby dodać literę A. Rozumiem, że to A będzie też z tyldą?
No nie wiem.
I potem naciskamy Backspace, żeby usunąć ostatni synag.
A naciskamy Escape lub przemieszczamy fokus z dala od menedżera akcentów, żeby tekst został wysłany.
Jakie są wspierane znaki?
Aha, mamy tu całą tabelkę akcentów i z jakimi literami to jest kompatybilne.
To ja nie będę tu całej czytał.
Instalacja jest też prosta, bo mamy to…
Albo się pobiera z GitHub’a, albo po prostu wybieramy to z menedżera dodatków,
bo już też w menedżerze dodatków ten dodatek jest.
No i to jest w sumie tyle.
Troszkę szkoda, że tak mało jest typów akcentów,
bo nie bardzo mi się wydaje.
Na przykład nie ma kropek do…
czy kresek tych, które my używamy w polskim alfabecie.
Nie ma kropek do umlautów, jeżeli dobrze rozumiem.
Bardzo, bardzo dużo tu rzeczy brakuje.
Ale może zostanie dodane.
Może zostanie dodane, więc miejmy nadzieję, że dodatek będzie z czasem rozbudowywany.
Bo na razie mam wrażenie, że to głównie będzie przydatne do romańskich języków.
Tam francuski, hiszpański.
Któreś tam inne, które też korzystają z tego typu akcentowania.
Także, no ciekawy dodatek. Miejmy nadzieję, że będzie się dalej rozwijał.
Na YouTubie komentarz a propos NVIDIA i tak mniemam, Oskar napisał, to tempo mnie zaskoczyło, jak zawsze instaluję wszystko co stabilne, to na NVIDIA posiedziałem do momentu wydania bety, a stabilną zrobiłem przenośną, tak nam napisał Oskar.
Natomiast teraz będąc w dalszym ciągu w kręgu kwestii tyflo aktualności,
Piotrze, nowy ciekawy projekt drukarki brajlowskiej, czy właściwie maszyny brajlowskiej,
elektrycznej, czy nawet elektronicznej, którą będzie sobie można zbudować
w zaciszu własnego domu, o ile mamy smykałkę do elektroniki.
Tak jest. Mykarka do elektroniki, drukarkę 3D i trochę umiejętności.
Projekt, który dopiero powstaje, ale już można specyfikację tego urządzenia znaleźć w internecie.
Jak pisze autor tego projektu,
kiedy uczestniczyłem w festiwalu Midwest Representative Festival MRRF 2024,
spotkałem się z grupą, z organizacją non-profit C3D,
czyli to jest grupa, która pozyskuje od wolontariuszy różne druki 3D,
które są później dystrybuowane do osób niewidomych i słabowidzących.
No i tam na swoim stoisku m.in. mieli pokazaną maszynę brajnowską
typu Perkins, pokazywali, jak takie coś wygląda.
W tamtym momencie wydawało mi się to ciekawe,
ale w tyle głowy miałem jedną myśl przez kilka miesięcy.
W końcu sprawdziłem, ile coś takiego kosztuje.
I taki ręczny Perkins kosztuje 1000 dolarów,
wersje elektroniczne i jeszcze więcej.
Biorąc pod uwagę, że niedawno brałem udział
w festiwalu dotyczącym drukowania 3D i że możesz samemu stworzyć drukarkę 3D za mniej niż 200$ to też musi być ciekawy projekt.
Postanowiłem stworzyć takie coś, w sensie maszynę braillowską, sam.
I tutaj kilka podstawowych celów sobie ten twórca postawił.
że ta maszyna, slash drukarka,
tutaj nawet jest użyte słowo embosser,
czyli właściwie bardziej taka drukarka powinna kosztować
pomiędzy 100 a 200 dolarów.
Powinna być otwartość źródłowa, open source i open hardware,
czyli zarówno oprogramowanie, jak i modele,
tak wszystkie jakieś szkice mają być dostępne.
Powinna być całkowicie wydrukowana 3D lub stworzona
z standardowych części, łatwo dostępnych.
Powinna być jak najprostsza w konstrukcji, bardzo mało skomplikowanych części, no może poza elektroniką.
Powinna mieć opcjonalny futerał, który zabezpieczy zarówno samo urządzenie jak i użytkownika.
I powinna być dobrze udokumentowana. Tutaj zarówno chodzi o dokumentację dla użytkowników,
koszty wszystkich materiałów, listę, schemat podłączenia przewodów,
Wszystko powinno być udokumentowane.
I przez następny rok
pan zaczął pracować nad prototypem tego urządzenia
i teraz w wydaniu tego festiwalu MNRF 2025
już został pokazany prototyp,
który ponoć nawet się
tym osobom, które go zobaczyły, podobało.
Urządzenie faktycznie wykorzystuje takie dosyć standardowe części,
bo jest powiedziane, że mózgiem tego urządzenia jest mikrokontroler ESP32,
czyli bardzo popularne urządzenie.
Mamy jeden silniczek krokowy, który steruje wałkiem,
więc tutaj przewijanie linii,
i drugi silnik, który przesuwa głowicę tej maszyny.
I jeszcze jeden silniczek, który wybija faktycznie te punkty na kartce.
I własną klawiaturę do wprowadzenia poleceń.
I tutaj koszty wyszły na około 180 dolarów, akurat z tych części, które w tym prototypie były wykorzystane.
Natomiast, jak tutaj zaznacza autor, jest jeszcze pole do obniżenia tego kosztu znacząco.
Mamy tutaj całą dokumentację na GitHubie. Rozumiem, że ta klawiatura jest klawiaturą taką brailowską, tak sobie to wyobrażam.
Natomiast to nie jest koniec planów tej osoby. Jeśli wejdziemy sobie na GitHuba jego, to tutaj faktycznie znajdziemy
Zarówno do oprogramowania tego kontrolera, jak i pliki modelów.
To narzędzia OpenWorks.
To narzędzia do projektowania, do modelowania.
I tutaj mamy opisane ograniczenia tego prototypu przynajmniej.
Standardowa klawiatura.
Pomysł jest taki, żeby w przyszłości to urządzenie
mogło działać z klawiaturami QWERTY.
Dla tych, którzy nie znają Braille,
ale chcieliby coś wydrukować, niż napisać.
Wkładanie kartek jest nieprecyzyjne,
bo musimy gdzieś temu urządzeniowi pokazać, gdzie jest pierwsza linijka.
No właśnie, musimy ręcznie ustawić początek kartki.
Wydrukowanie części na drukarce 3D wymaga…
planszy, czy właściwie obszaru drukowania,
który ma średnicę 256 mm.
Długoterminowa wytrzymałość niesprawdzona.
No to jest prototyp, więc myślę, że możemy wybaczyć na razie.
Bardzo mało sygnałów dźwiękowych, czyli światła, wyświetlaczy z wykorzystywaniem,
żeby było więcej komunikatów dźwiękowych, czy sygnały, czy syntezą.
Ręczne, wymaga ręcznego podłączenia przewodów i gdzieś chyba obcinania tych przewodów.
Generalnie tutaj też można by to poprawić.
I nie ma ekranu dla użytkowników widzących,
którzy by chcieli pewnie to zweryfikować.
No i właśnie tutaj plany na przyszłość,
sugestie użytkowników.
Przepisać te wszystkie schematy w bardziej darmowym oprogramowaniu.
Tu jest mowa o free 3D CAD,
albo jakieś darmowe oprogramowanie do tworzenia modeli.
Wsparcie dla plików brailowskich i plików .brf.
Kompatybilność z komputerami QWERTY,
Żeby ta własna klawiatura miała własny mikrokontroler i pamięć,
żeby dało się coś na klawiaturze napisać.
W ogóle plan jest taki,
żeby ta klawiatura była używana osobno jako notatnik brandowski.
To ciekawe plany,
które wykraczają za nawet typową maszynę slash trukarkę, ale czemu nie.
Więcej dźwięków na samej części drukującej.
Wykrywanie, kiedy dojdziemy do początku kartki.
No wiadomo, alternatywne, tańsze sprzęty, no to jest prototyp i tutaj jeszcze jest trochę rzeczy, które dałoby się poprawić.
Jak tutaj zaznacza autor, jest kilka podobnych projektów, natomiast te projekty są bardziej przystosowane do tego, żeby być typowo drukarkami, drukować z plików,
a to urządzenie, jego głównym zadaniem jest faktycznie bycie taką maszyną brainowską.
Tak że fajnie, że tutaj mamy kolejne osoby, które czymś takim się interesują.
Faktycznie do tysiąca dolarów to niemało,
a więc jeśli ktoś szuka sposobu, żeby taniej stworzyć maszynę brajdowską,
czy w ten czy inny sposób, to fajnie, że takie rzeczy się powstają.
Mieliśmy tańsze klawiatury brajdowskie, o których Paweł mówił,
a teraz, jak widać, użytkownicy też zaczęli interesować się
maszynami brajdowskimi. Ciekawe, co jeszcze w przyszłości
Będziemy mogli sami sobie ewentualnie stworzyć, wydrukować.
Myślę, że to wszystko jest kwestią tego, jak wielu użytkowników takich sprawnych technicznie i projektowo będzie miało do czynienia też z osobami niewidomymi.
Albo jak bardzo sami niewidomi będą chcieli się zagłębić w takie rzeczy związane z elektroniką.
Wszak niektórzy też próbują swoich sił w tej dziedzinie.
A teraz trochę o muzyce, o dźwięku i o kontrolerach Komplete Kontrol Mark III, bo tu się dostępność pojawi, jeżeli chodzi o te kontrolery.
Tak, i to można powiedzieć w końcu, bo to była dostępność, która była przekładana wiele razy.
Generalnie to są kontrolery, które dają nam dostęp do wielu wtyczek, których normalnie byśmy nie mogli w łatwy sposób korzystać.
Na przykład takie wtyczki jak Kontakt czy jakieś inne wtyczki od Native Instruments,
ale też firm trzecich. Jak ktoś tworzy muzykę albo się tym interesował,
to na pewno wiecie, o co chodzi. Poprzednie generacje tego sprzętu
były bardzo cenione w środowisku, przez to, że były urządzeniami
bardzo dostępnymi. No i podobnie miało być z tą najnowszą wersją,
która przynosiła kilka znaczących zmian, lepsze wsparcie dla…
Dla midi, port USB-C.
Dużo pozytywnych zmian zostało wprowadzone.
Chyba więcej parametrów na to urządzenie przypisać.
Duża zmiana na plus, natomiast jeśli chodzi o zmiany na minus,
to była jedna dosyć znacząca.
Te urządzenia nie działały z wersją oprogramowania,
która nam mowę oferowała.
Natomiast ta dostępność miała powstać stosunkowo szybko.
Ten trzęsiebaj nawet jakoś dwa lata temu wyszedł.
No, to się niestety wszystko wydłużyło,
natomiast niedawno mieliśmy publiczną wersję beta.
A teraz już oficjalnie oprogramowanie firmware
dla kontrolerów Complete Control Mark III.
W wersji 2.0 pojawiło się publicznie.
I to oprogramowanie, poza tym, że dodaje nam integrację
z innymi wtyczkami, nawet niekompatybilnymi,
z tak zwanym standardem NKS,
będziemy mogli pokrętłami na tym kontrolerze
…sterować każdą wtyczką, jak i też naszym programem do tworzenia muzyki.
I tutaj co ciekawe, też ma się oficjalnie pojawić wsparcie dla Reapera,
co też wiele osób ucieszy, bo na ten moment są tylko wspierane
programy typu Ableton, Logic, to chyba z takich dostępnych,
a pozostałe to są programy nierozstępne.
Natomiast Reaper był i cały czas zresztą jest wspierany
przez nieoficjalne wtyczki, a tutaj najpierw Instruments publicznie zaznaczył,
że Reaper ma być oficjalnie wspierany.
To też myślę, że zmiana na plus.
No, na razie jeszcze trzeba wykorzystać z tych narzędzi nieoficjalnych.
Natomiast jeśli chodzi o samą dostępność,
to wbudowany tryb dostępności.
Komunikaty głosowe dla wszystkich przycisków,
nawigacji wszystkich pokręteł.
Tryb urzczenia mówi funkcję wszystkich przycisków bez ich aktywowania.
Dział, o proszę, to też całkiem ciekawe.
Można korzystać z tego z syntezatorami sprzętowymi,
bo to też te klawiatury mają własne porty MIDI,
poprzez załadowanie szablonu MIDI i włączenia mowy.
Działające przez zawsze aktywną aplikację Accessibility Helper,
która chowa się do zasobnika systemowego,
czy na masku do… na Macu, do Polska Menu.
Natomiast tę aplikację trzeba zainstalować osobno.
I tutaj trochę przechodzimy też do procesu instalacyjnego.
Kompatybilne z dwoimi ustawieniami
dla głosu, wysokości, szybkości i języka.
I to też fajne zarówno do klawiatur Complete Control
i do kontrolerów Maschine, które są trochę innymi urządzeniami
do innego typu muzyki, do bardziej zastępstwa, tak zwanego.
Generalnie dostępność do obu tych urządzeń
jest teraz oferowana przez jedną aplikację.
Co musimy zrobić, żeby to nam działało? Jeśli mamy takie urządzenie,
to musimy najpierw zaktualizować oprogramowanie
na samej klawiaturze, na samym kontrolerze,
specjalną aplikacją do aktualizowania firmware’a.
Będzie link do tego w komentarzu.
Następnie musimy zaktualizować program Hardware Connection Service,
czyli starowniki rozwojowe do tego urządzenia.
To już znajdziemy w aplikacji Native Access,
czyli centrum dowodzenia dla produktów Native Instruments.
Tam pobieramy wszystkie ich produkty i aktualizacje.
Dla osób, które potrzebują funkcji dostępności,
To też w Native Accessie musimy znaleźć aplikację Accessibility Helper
w wersji 2.0.4.
To będzie nam wyświetlone na liście produktów,
które możemy zainstalować w aplikacji Native Access.
Też musimy odpowiednie skrypty do naszego programu do tworzenia muzyki
zainstalować np. do Abletona.
Myślę, że tych instrukcji nie będę opisywał.
Jeśli ktoś chce tego korzystać, to wszystko jest rozpisane.
Natomiast co jest dla nas ważne, jeśli chcemy, żeby ta dodatność działała,
to po instalacji tego Accessibility Helpera musimy jeszcze go sobie uruchomić.
Musimy go uruchomić ręcznie raz,
żeby przyznać mu wszystkie uprawienia do automatycznego startu systemem.
Po pierwszym starcie on będzie pamiętał, żeby się z komputerem uruchamiać.
Pojawi się wtedy w zasobniku lub na pasku menu,
zależnie od tego, czy mamy Windowsa czy Maca, ikona dla tego programu.
No i będzie po prostu działał w tle, kiedy zostanie włączony.
I jeśli ta aplikacja jest uruchomiona, to nawet te cztery już na kontrolerze nie musimy,
przynajmniej ja to tak rozumiem, włączać tych funkcji dostępności.
Wcześniej to było tak, że musieliśmy jakąś kombinację klawiszy nacisnąć.
No a teraz przez to, że to jest wykonywane przez derekowaną aplikację,
to po prostu tego nie musimy robić.
No, tylko musimy pamiętać o tym, żeby zaktualizować to programowanie na kontrolerze,
zaktualizować sterowniki, czyli ten Connectivity Service i ściągnąć sobie
Accessibility Helpera. I kiedy już to zrobimy, no to w końcu możemy w pełni się tym sprzętem
cieszyć. A dla tych, którzy zastanawiali się, co kupić, bo tutaj wiem, że dużo osób
miało z tym problem, czy gdzieś szukać używanych kontrolerów starszych,
Czekać, bo jednak te kontrolery Mark 3 są po prostu najnowsze i faktycznie nam mogą więcej przydatnych funkcji zaoferować.
No to w końcu myślę, że możemy z czystym sercem te trójki dla Was polecić.
Sylwester pyta w wiadomościach na Whatsappie, czy będą jeszcze w tym tygodniu jakieś audycje.
Nie, w tym tygodniu audycji więcej nie będzie, także będzie tylko ta audycja.
No i Sylwester, swoją drogą, dzieli się też z nami w Wiadomości Głosowej takimi spostrzeżeniami a propos NVIDIA,
że być może te prace związane z kolejnymi wersjami NVIDIA ruszyły dlatego tak szybko, że wakacje się kończą i trzeba się wziąć do roboty.
No to coś w tym może być, rzeczywiście może twórcy NVIDIA wzięli sobie to do serca.
No, Apple poniekąd, dlatego też tak szybko wydaje te wersje teraz beta.
Tak, wakacje się kończą, więc cóż…
Swoją drogą, a propos wersji beta, to myślę, że też możemy wspomnieć, że te wersje beta się pojawiły kolejne,
natomiast po prostu to są poprawki błędów w tym momencie i to takie na tyle drobne, że…
Nawet chyba niedostępności tak naprawdę…
Tak, dokładnie, dlatego tym razem o betach nie mówimy w tym tygodniu.
Dokładnie. No poza tym, że na Apple Watchu naprawili centrum sterowania, ale to też tak mimochodem.
I skoro już o tym mowa, to właśnie dlatego, że wakacje wczoraj wydano zarówno deweloperskie, jak i publiczne bety.
Nie to, że wczoraj deweloperskie, a w czwartek publiczne, tylko wczoraj wydano jednym hurtem wszystko.
Tak jest. No słuchajcie, powolutku, ale to mówię powolutku, zbliżamy się do końca tyflu aktualności,
Ale jeszcze mamy dwa duże bloki, o których teraz, to myślę, od drobnych newsów sobie tym razem zacznijmy.
Maćku, ty tu na dobry początek masz informacje, chociażby dotyczące przyspieszania wiadomości głosowych w iMessage.
Się da i w sumie odkryłem to tak zwanym zupełnym przypadkiem, jak odsłuchiwałem sobie wiadomości audio od pewnej koleżanki, którą pozdrawiałem w przypadku audycji o AirPodsach.
Teraz swoją drogą na stronie się ukazała, także polecamy. Również teraz pozdrawiam.
I tak, wśród czynności dostępnych na danej wiadomości audio mamy właśnie takie rzeczy jak…
To znaczy, najlepiej idąc sobie palcem w górę, przeciągając tam.
Aktywuj domyślna, przeciągnij i zaczyna się jazda bez trzymanki.
Odtwarzaj 2x, czy dwa razy szybciej, tam 1,5, 1,25 i chyba w zasadzie tyle.
A, no i 1x, czyli bez przyspieszenia.
Co ciekawe, tak naprawdę nie wiem, jak to robią osoby widzące,
Dlatego, że w menu po przytrzymaniu,
to znaczy po dwukrotnym stuknięciu z przytrzymaniem
my tego nie mamy, natomiast
tam to nie jest wtedy dostępne,
natomiast właśnie pod tymi czynnościami to się znajduje
i działa, chociaż
rozwiązaniom do Whatsappa to troszkę jednak brakuje.
Dlaczego? Bo po pierwsze nie jest zapamiętywany
Wątek, żeby wszystkie wiadomości w danym wątku się odtwarzały z ustawioną prędkością, tą przez nas wybraną.
Tylko z uporem maniaka każda wiadomość, osobna, jak jeden mąż i jedna żona odtwarza się, słuchajcie, z tą prędkością stałą, tą taką pierwotną, domyślną.
Czyli na przykład, jeżeli ktoś się naprodukuje nagraną na wiadomości 5 czy 6 czy więcej,
to generalnie pierwszą wiadomość, którą sobie ustawimy z daną prędkością szybszą,
no okej, odtworzy nam się wszystko super, ale do kolejnej, jak już nam przeskoczy,
no to się będzie odtwarzało z prędkością tą domyślną niestety.
To jest raz.
A dwa, lepiej sobie zrobić właśnie w ten sposób, że zanim daną wiadomość sobie zaczniemy odtwarzać,
a wiemy, że ktoś ma sposób bycia, że tak to ujmę, dosyć powolny i styl wypowiedzi również,
no to lepiej sobie ustawić, wybrać odpowiednią czynność już zawczasu
i aktywować ją, tą prędkość odtwarzania, bo wówczas ta prędkość, znaczy to odtwarzanie zacznie się z tą prędkością,
którą wybraliśmy na… spośród dostępnych czynności.
I czy ja jeszcze o tym coś chciałem?
Właśnie też z tego względu to jest troszeczkę upierdliwe, bo też ten kursor VoiceOver jeszcze gdzieś tam się potrafi zagubić
i zamiast do kolejnej wiadomości przechodzi gdzieś tam.
nie jest oznajmiany status wiadomości odtwarzanej, że akurat ta jest odtwarzana
tak jak na Whatsappy to ma miejsce. Także do Whatsappowego rozwiązania temu
brakuje sporo jeszcze, ale grunt, że się da. Tylko żeby dla gwoli jasności
to jest w betach iOS 26, raczej tego nie uświadczymy jeszcze w osiemnastkach,
no to nawet chyba weszło w jakiejś szóstej albo piątej becie wcześniej,
Więc być może dopiero od tej wersji to weszło.
I to jest rzecz jedna, wywoływana z czynności voice-overa.
A druga rzecz, tym razem właśnie z przytrzymania na danej wiadomości,
ze stuknięcia jednym palcem dwukrotnie i przytrzymanie,
to zachowywanie wiadomości w dyktafonie systemowym.
Nie wiem dlaczego raz się to lubi pojawiać w czynnościach
Zachowaj w dyktafonie raz, nie, zresztą tak było w iOS 18,
że raz to było, a raz nie, a najczęściej to jest w momencie,
kiedy ktoś nam wyśle jakiś plik audio po prostu,
no nie, nawet głosówkę, ale w formie pliku audio, a nie w formie takiej
standardowej wiadomości audio głosowej, tylko w formie dołączonego pliku,
to wtedy na czynnościach też ta, zachowaj w dyktafonie, ta czynność się
pojawia. A jeżeli nie, jeżeli jest tylko wiadomość audio, a my sobie ją chcemy
przetranskrybować na przykład jakimś Whisperem czy, czy, czy, czy
Elevenem, bo, no bo ktoś sobie mówi przez piętnaście minut,
no to, no to należy najpierw zachować w dyktafonie,
ale właśnie w ten sposób, że dwukrotnie stuknąć z przytrzymaniem, tam dopiero się pojawi
opcja zachowań w dyktafonie. No i tak sobie można. I to jeśli chodzi o drobne
rzeczy, to ode mnie tyle.
Ale jeszcze Piotr ma tu małe co nieco. Tym razem będzie o Androidzie.
Tak, będzie o Androidzie i to będzie o Jeshuo, dokładnie.
Jeshuo, który jest bardzo popularny, ale jest też aplikacją, która czasami
może w niektórych sytuacjach nie działać tak dobrze jak TalkBack.
No bo TalkBackiem nie jest i właśnie dlatego niektóre aplikacje go nie lubią.
Jeshuo od jakiegoś czasu miał swoją usługę, tak zwanego TalkBack Spoofera,
który miał zaznaczenie udawać talkbacka dla zewnętrznych aplikacji.
I to w wielu sytuacjach działało, ale nie zawsze.
Nie ze wszystkimi aplikacjami.
Okazuje się, że jedną z takich aplikacji, która zrzeszyła,
właśnie przez to nie działała,
jest wbudowana przeglądarka internetowa w telefony Samsung.
Przeglądarka, która swoją drogą, z tego co wiem,
jest bardzo sensowną aplikacją, która ma dużo ciekawych funkcji.
Jakieś blokowanie reklam, rozbudowane funkcje personalizacyjne.
Więc jak najbardziej ktoś może mieć powód,
żeby z tej aplikacji korzystać na rzecz np. Chroma albo Wirefoxa.
No i właśnie między innymi przez to powstała aplikacja,
która nazywa się po prostu Jeszło Screen Reader Extension.
To może jakiś skryt, który po prostu wgrywamy do Jeszło.
Nie do końca jest to po prostu aplikacja, którą normalnie pobieramy.
jest to aplikacja APK, która po instalacji dodaje swoją własną usługę dostępności,
którą musimy sobie włączyć. I właśnie ta usługa jest odpowiedzialna
za udawanie talkbacka właśnie. I co za tym idzie też, jeśli chcemy z tej aplikacji
korzystać, to musimy wtedy też tą analogiczną funkcję w samym dziesiuo wyłączyć.
Natomiast to nie jest…
Natomiast to nie jest jedyna rzecz, którą to rozszerzenie oferuje.
To aplikację też możemy otworzyć, ona ma swoje własne ustawienia.
I mamy też funkcję Wyłącz wykrywanie gestów tylko na obszarze klawiatury.
I do czego nam się to może przydać?
To spowoduje, że możemy z klawiatury na Androidzie korzystać,
Tak jak na iOS, mamy tak zwany tryb bezpośrednie pisanie bezwzrokowe.
Czym to się różni od pisania bezwzrokowego?
W pisaniu bezwzrokowym wygląda to tak, że kiedy położymy palec,
to najpierw dany klawisz przeczyta,
a dopiero po puścieniu palec dana litera zostaje wpisana.
A bezpośrednie pisanie bezwzrokowe wyłącza dotyk na obszarze klawiatury.
Przynajmniej tak to działa na iOS.
A co za tym idzie, jeśli ktoś bardzo dobrze się nauczył klawiatury ekranowej,
to jesteśmy w stanie pisać dużo szybciej niż po prostu czytnikiem ekranu.
I nawet jeśli dobrze nauczymy naszą autokorektę,
to pewnie nie wiem, czy szybciej niż pisząc brajlu,
ale na pewno tak możemy pisać jedną ręką,
czego o pisaniu brajlowskim nie możemy powiedzieć.
No dobra, iOS 26 będzie miało takie pisanie,
Ale to pewnie i tak nie będzie tak szybkie,
jak ktoś się nauczy tego pisania bezdrogowego.
I znam ludzi, którzy tylko przez to, że Android takiej funkcji nie ma,
zostają przy iOS-ie.
Więc jeśli to faktycznie działa tak, jak to opisuje autor,
a autor też pisze, że to faktycznie działa tak,
że te gesty są wyłączone tylko na klawiaturze,
więc to nie jest tak, że musimy całkiem dzieszło wyłączyć,
tylko możemy sobie też jednocześnie eksplorować interfejs.
np. przeczytać, co wpisaliśmy, przenieść kursor,
nacisnąć jakiś przycisk podczas wypełniania formularza.
To może być całkiem ciekawa sprawa.
Tak że bardzo ciekawa funkcja.
Mamy jeszcze poprawione pisanie z wyłączonymi gestami.
Ja to opisuję tak.
Niektóre klawiatury, jak np. klawiatura Samsung,
zachowują się bardzo dziwnie i nieprzewidywalnie,
Kiedy wygrywanie gestów jest wyłączone?
Ta funkcja poprawia to działanie.
Natomiast musisz w przedniku ekranu włączyć opcję
strugnij dwukrotnie, żeby aktywować klawisz,
żeby ta funkcja działała prawidłowo.
Mamy też opcję konfigurowania opóźnienia,
zanim wyświetlą się alternatywne znaki.
Jeśli przytrzymamy palec na jakiejś literze po Jeshuo,
nie ma ustawień na to.
Mamy informację, że nie musimy korzystać z usługi Joshua Helper,
czyli tego udawacza, talkbacka, który jest w Joshua wbudowany.
Aplikację można pobrać z GitHuba, jest przetłumaczona na kilka języków.
Polski akurat jednym z tych języków nie jest.
Jeśli chcielibyście korzystać czy z pragnotarki Samsung,
czy z klawiatury w taki bezpośredni, bezwzrokowy sposób,
No to myślę, że to może być coś warte do przetestowania.
Natomiast ja osobiście tego nie sprawdzałem.
I też tutaj mamy informację na górze tego posta,
na stronie Accessible Android.
Został on wysłany przez użytkowników, właściwie przez autora tej aplikacji.
I też nie został sprawdzony przez autorów tej strony.
Także zawsze jakieś ryzyko jest, że instalujemy coś poza sklepu Play.
Natomiast jeśli to faktycznie działa tak, jak to opisuje autor,
No to może być coś, co myślę wielu osobom może się naprawdę przydać.
Pytanie do Michała. Czy ma jeszcze jakieś zaległe podcasty, znaczy tyflopodcasty z audycji na żywo, które prowadził?
Jeżeli tak, to czy nie mógłby w najbliższym czasie opublikować na stronie tyflopodcastu?
Mógłbym, jak najbardziej, to zrobię.
Wszystko ma swoją kolejkę.
A nawet są jeszcze takie materiały, które nie były na żywo,
a też są przeznaczone do publikacji.
I myślę, że coś w tym tygodniu w tej kwestii się ruszy.
Chociażby właśnie ze względu na to, że audycji na żywo
mamy mniej właśnie w tym tygodniu.
No dobrze, to zanim zajmiemy się publikacją i zanim przejdziemy do technikaliów, to Piotrze, jeszcze Ty się nagadasz, a potem Maćkowi oddamy mikrofon na dłuższą chwilę. Teraz gry.
Tak, tak wyszło, że całkiem sporo się działo w świecie gier. Zaczynając od kilku projektów, które na swoją stronę wrzucił JJ Metal,
czyli osoba, którą mogą kojarzyć ci, którzy np. słuchali swojego czasu
podcastów Blind Bargains, bo on był jednym z prowadzących te podcasty,
zresztą chyba założycielem tej całej firmy i sklepu,
które teraz wypadła mi na dwa, jak ten sklep się nazywa.
Ale jakby ktoś był ciekawy, co można zrobić z pomocą GPT-5 i Gemini’a i nawet
GPT-4, tutaj różne narzędzia były wykorzystywane,
No to mamy taką całkiem pokaźną bazę kilku gier przeglądarkowych,
zrobionych prawie całkowicie przez AI.
Ja dowiedziałem się o tym przez dwie gry, które się tutaj pojawiły.
Mianowicie Audio Space Invaders i Scale This.
Gry, które… no, Audio Space Invaders, no to możemy się domyślać, o co chodzi.
Jest to gra, w której po prostu musimy zestrzeliwywać spadające statki.
statki. Ktoś grał w Troopanum, na przykład, czy w Valiant Outback, wiecie, o co chodzi.
Natomiast co jakiś czas będziemy też, będą przylatywać statki przyjacielskie,
których nie powinniśmy zestrzelić, bo jeśli co zrobimy, to stracimy życie.
A też co jakiś czas będą pojawiać się bonusy, które możemy zdobyć, żeby
albo dostać więcej punktów, albo dodatkowe życie, albo więcej amunicji,
bo też w tej grze mamy amunicję. Jeśli nam się amunicja skończy, to znów też
stracimy życie, więc to opłaca się być celnym generalnie.
I ta gra też jest tyle ciekawa, że jest w takim zrobionym bardzo klimacie retro.
Wszystkie dźwięki są syntezowane chyba w czasie rzeczywistym.
No i faktycznie to przypomina trochę to klasyczne Space Invaders.
Faktycznie mamy takie bardzo ośmiobitowe dźwięki.
Mamy nawet jakąś muzyczkę w tle.
No, całkiem fajnie to zostało zrobione.
No i ponownie, jak tutaj właśnie pisze JJ,
Prawie całkowicie. To chyba nawet z jednym poleceniem.
No, tam później jakieś akuralizacje się pojawiły,
ale pierwsza wersja tej gry powstała po jednym poleceniu do GPT-5
i nawet to wyszło całkiem sensownie.
Chociaż nie, to nie było GPT, tylko Gemini 2.5.
Przepraszam, ale generalnie też właśnie po jednym poleceniu.
No i mamy kolejną grę, stworzoną w podobny sposób.
To gra, w której musimy zbierać z planszy nutki.
Natomiast nie możemy ich zbierać po prostu w losowej kolejności,
tylko tutaj z nazwy scale, czyli skala, np. skala muzyczna,
musimy je zebrać w odpowiedniej, rosnącej kolejności muzycznej.
Nuty, które nam będą się pojawiać, będą różne.
Czasami zaczniemy od jakiegoś C, czasami zaczniemy od jakiegoś Cisa,
czasami zaczniemy od D.
Więc musimy też po prostu wsłuchać, która nutka jest najniższa,
no i w odpowiedniej kolejności te nutki zbierać.
Jeśli coś zbierzemy źle, znów tracimy życie, więc lepiej tego nie robić.
A jeszcze niektóre nutki są obronione przez jakieś demony, które wokół nich chodzą.
I jeszcze oprócz tego, że musimy te nutki zbierać, to musimy tych demonów unikać.
I tutaj znów mamy klimat retro, dźwięki bardzo podobnej oprawie zrobione.
Też mamy muzyczkę w tle.
Bardzo fajnie zrobiona gra, działa praktycznie w każdej przeglądarce.
Ja to sprawdzałem na Safari i na Firefoxie.
W obu przypadkach działa bez problemu, także warto sobie wejść i przetestować.
Ale to nie wszystko, no bo na przeglądarce jeszcze mamy
gadający zegarek, emulujący zegarki z Sharpa, chyba jakiś Talking time.
Jak ktoś korzystał z Steve’a Sklocka, to wiecie, o co chodzi.
Mamy muzyczne kości, co jak rzucamy kośćką i po prostu różne akordy nam wychodzą.
Mamy Music Captcha. To też ciekawy pomysł.
Zamiast wpisywania tego, co słyszymy, to musimy wpisać, jakie nuty słyszymy.
Albo Music Captcha Chords. Wpisujemy akordy, jakby komuś było za łatwo wpisywać, jakie nutki słyszymy.
To też było chyba z pomocą AI tworzone.
Mamy tutaj jakąś bazę stacji radiowych.
Tu chyba jakiś katalog na Dropboxie.
Są głównie stacje angielskojęzyczne.
Natomiast faktycznie też trochę tego jest.
I mamy jeszcze jedną grę, która była w sumie na początku tej strony.
A mianowicie Rolling Balls, to też gra Grzegorza Narkowa.
Natomiast gra, która faktycznie też ma jakieś grafiki, jakiś tekst.
I to jest gra, która…
Jeśli ktoś grał w Crazy Party,
też była taka minigra, gdzie gramy sprzeciwko komputerowi
i mamy kulki wypadające z takiej rury chyba,
tam to było tak opisane, i możemy wziąć albo jedną, dwie, albo trzy.
I widzimy, że następna kulka tam będzie mówi
pojedynczy plus, pojedynczy plus i potrójny minus na przykład.
No i musimy na tej podstawie zdecydować, ile tych kulek chcemy wziąć.
tak, abyśmy my mieli więcej punktów niż nasz przeciwnik.
I tutaj mamy taką przeglądarkową wersję tej gry, która ma też swoje unikalne dźwięki.
No, całkiem ciekawie też to zostało zrobione.
Ale to jeszcze nie koniec, bo w grach działo się naprawdę dużo.
I zostając cały czas w klimatach gier przeglądarkowych i grach, które w dużej
mierze mają swoje dźwięki syntezowane, wcześniej rzeczywiste, no to doczekaliśmy się
Dłużej aktualizacji Periphery Synthetic, czyli gry, w której mówiliśmy o niej kilka razy.
Jesteśmy na obcej planecie, w takim specjalnym skafandrze, który możemy ulepszać tak,
aby tą planetę eksplorować jak najlepiej. Będziemy dostawać różne informacje dodatkowe o tej planecie.
Kiedy lądujemy na początku, to tak naprawdę tylko możemy chodzić, ale zdobywając odpowiednie cząsteczki,
odpowiednie minerały, to możemy do naszego pojazdu dorobić sobie koła i sobie jeździć.
Superskoczność, albo nawet pędniki, jakiś plecak podrzutowy,
żeby sobie zacząć latać. I tym sposobem po prostu możemy
przenieść się do kolejnych biomów, kolejnych światów,
w których będziemy mogli jakieś kolejne możliwości zdobywać.
I w tej najnowszej aktualizacji czego się możemy doczekać?
Dwa nowe światy zostały zdane.
Jeden świat, w którym jeśli wzbijemy się do atmosfery tej planety,
to możemy rozwinąć taki rodzaj spadochronu
albo nawet też bardziej taki panezolarny,
bo też możemy energię w tym gromadzić,
i zbierać różne cząsteczki,
opadając z powrotem na Ziemię,
na powierzchnię tej planety, w której jesteśmy.
I też mamy różne rzeczy, które możemy ulepszać,
żeby lepiej się w powietrzu poruszać.
Poza tym mamy też świat taki pomiędzy różnymi tymi miejscami,
gdzie poruszamy się tak naprawdę w przestrzeni.
Tam też różne cząsteczki możemy zdobywać.
Ponadto mamy dużo ulepszeń dotyczących tego trybu podwodnego,
bo już od jakiegoś czasu możemy też, jeśli w danym miejscu jest woda,
to możemy zejść pod wodę, wchodzić do różnych jaskin,
które możemy eksplorować.
Dodatkowe radary zostały dodane, które nam pomogą w nawigacjach w tych miejscach.
To jest gra bardzo abstrakcyjna i dużo osób na początku ma problem, żeby zrozumieć, o co w tej grze chodzi.
Od poczęści to jest trochę genaza tej gry, że ona nam nie mówi, co mamy właściwie robić,
tylko musimy sami rozglądać się po tej planecie, eksplorować ją, żeby zobaczyć, co ewentualnie możemy osiągnąć.
Jest to gra naprawdę ciekawa, bo mimo to, że dźwięk jest syntezowany,
to też mówię często, ale naprawdę jest to imponujące,
co temu człowiekowi udało się osiągnąć tylko prostymi jakimiś syntezatorami,
bardzo takie realistyczne dźwięki tworząc.
I też jeśli gramy z joystickiem, no to też bardzo podobnie fajnie
została haptyka w tej grze zrealizowana.
Polecam sobie tę grę pobrać.
Nie jest jakaś bardzo droga, kosztuje teraz 5 dolarów, wcześniej kosztowała 3.
Ale też dla tych, którzy z tego czy innego powodu
nie mogą sobie pozwolić na zakupienie pewnej wersji tej gry,
bo też jest wersja demo dostępna,
to jest dostępne kilka tzw. community copies,
czyli za każdą razę, jak ktoś tę grę kupuje,
to też jest udostępniana jedna wersja,
którą każdy może pobrać za darmo, jeśli tego potrzebuje.
Chyba nawet ponad 200 takich wersji jest dostępnych
i tam po prostu wystarczy odpowiedni link kliknąć.
Więc jeśli możemy wesprzeć tego autora, to naprawdę polecam.
Ale jeśli nie, a bardzo chcecie zagrać, to też jest sposób,
żeby tę grę w wersji pełnej za darmo pozyskać.
Idziemy dalej.
I teraz nawiązanie do tego, o czym mówił Patryk w zeszłym tygodniu,
kiedy tutaj z nami się łączył, a mianowicie mówił wtedy
o nadchodzącej, dziewiątej wersji TOBI Accessibility Mod for DOOM,
czyli właściwie TOBI DOOM, jak to w skrócie można powiedzieć.
Czyli mod dodający dostępność do gier z serii Doom i nie tylko zresztą, bo Hexana, Heretica też, czyli taki zupełnie trochę w innym klimacie, gier na tym samym silniku.
Aktualizacji znaczącej, bo aktualizacja typu taka najbardziej istotna zmiana, dodaje bardzo rozbudowane, internatywne samouczki, które pozwalają nam zobaczyć, jak dokładnie to wszystko wygląda,
co oznaczają różne dźwięki, jak się poruszać po mapie, jak korzystać z różnych funkcji nawigacyjnych,
który ten mod nam oferuje, a oferuje ich nam całkiem sporo.
I automatyczną nawigację, możemy powiedzieć, żeby nas zaprowadził
do zamkniętych drzwi, które wcześniej znaleźliśmy,
czy do miejsc, w których jeszcze nie byliśmy.
Trochę tych funkcji jest i zostały dodane kolejne.
Teraz też będziemy dostawali dodatkowe sygnały dźwiękowe,
które nas będą informowały o tym, kiedy wysokość naszej postaci się zmienia.
Jeśli wchodzimy na schodki albo spadamy z miejsca,
Będziemy mieli dźwięk, który zinformuje, że spadłeś na poziom niżej.
Warto też na to zwrócić uwagę.
Tak że jeśli nie graliście jeszcze w BUA,
m.in. dlatego, że było to dla was za trudne,
to warto tę wersję popatrzeć. To jest wersja testowa.
To jest wersja RC1.
Stabilna wersja ma się pojawić w wrześniu.
Natomiast dla osób zainteresowanych
Już możecie sobie ją przetestować
i zobaczyć, czy faktycznie wam to będzie działać.
Następnie długo zapowiadane DLC dla Brocka zostało wydane.
Zastanawiam się, czy Patryk już o tym w zeszłym tygodniu mówił, czy nie.
Jeśli nie, to po prostu powiemy jeszcze raz.
Jest to rozszerzenie do gry, która jest bardzo dla nas fajnie dostępna.
To rozszerzenie, co zresztą też autor mówił,
może w niektórych miejscach nie być tak dostępne.
I ono składa się z kilku części.
Ja jeszcze tego osobiście nie miałem kiedy przetestować,
natomiast patrząc na to, co piszą ludzie na forum,
mamy tak zwane wezwania VR, w rozszerzenie rzeczywistości,
i niektóre z tych wyzwań mają jakieś problemy z dostępnością.
Tam w niektórych miejscach gra nam odpowiada tylko,
jak na przykład niektóre rzeczy zrobić myszką,
więc są tam rzeczy, które jeszcze trzeba poprawić,
Są rzeczy, które mogłyby mieć dźwięki, które na ten moment dźwięków nie mają.
Natomiast stara się nie zdziwiać, jeśli stopniowo auto też będzie te rzeczy poprawiał,
bo generalnie dba o tą dostępność, więc myślę, że z czasem to się będzie poprawiało.
Natomiast też główną kwestią w tym DLC jest to, że musimy po prostu walczyć
i pokonywać coraz to trudniejszych przeciwników.
I ta część jest raczej dostępna.
Mamy tam jakiś drobny element fabularny.
Więc jeśli ktoś grał w ROG’a i Wam się podobało, zwłaszcza te części
takie bardziej zręcznościowe, w tym trybie akcji tak zwanym,
gdzie walczyliśmy przeciwko różnym przeciwnikom,
no to myślę, że warto sobie to DLC ściągnąć.
Ono jest dostępne zarówno na Steamie, jak i na iChu, na Termometryko, na system Windows.
Jeszcze nie widziałem, żeby tam wersja na Maca się pojawiła,
ale pewnie też to na dniach się stanie.
A jeśli ktoś gra na konsoli, to też mamy informację, że to DLC na konsolę też się pojawi, niebawem po prostu trzeba poczekać.
A też jeśli ktoś na przykład nie chce kupować pełnej gry, dlatego interesują Was właśnie te walki, to to DLC też można kupić osobno.
Jest to… ono działa też zupełnie osobno, nie musimy mieć pełnej wersji gry, żeby sobie to DLC przetestować.
I na koniec jeszcze jedna gra, tym razem od Jeremiego Kaldowskiego.
Na myślenie i na to, czy potrafimy dobrze szukać w internecie.
Gra nazywa się The Rook i składa się z kilku takich zagadek detektywistycznych.
Mamy informację…
Mamy chyba jakąś osobę, która może zaraz zrobić coś złego,
Jesteśmy detektywami i musimy wszystkie wskazówki, które znajdziemy,
poskładać odpowiednio, żeby dobrze wiedzieć,
gdzie ta osoba może uderzyć w następnym miejscu.
Mamy informacje, jakieś książki, wycinki z gazet.
Musimy odpowiednio to przeczytać i poszukać informacji w internecie,
Żeby dotrzeć do odpowiedzi na to pytanie,
jeśli ktoś lubi kryminalne seriale, to ta gra może się spodobać.
Gdybyście mieli problem z tą zagadką,
a z tego, co wiem, jest kilka trochę amerykańskich rzeczy,
to w jakichś artykułach w okolicy gazetach trzeba je znaleźć.
Na forum Audiogames ludzie rozmawiają.
Jak ktoś nie chce od razu odpowiedzi dostać,
warto przejrzeć wątek tej gry na forum.
Będzie link do tego wątku.
Bo tam możecie znaleźć ewentualnie jakieś wskazówki i w ten sposób do tej odpowiedzi dotrzeć gra.
Swoją drogą, chyba jeszcze nie wspominałem, jest też przegląd arkowa.
Po prostu zwykła strona internetowa nam się otwiera.
No i jesteśmy w stanie wszystko z tej strony przeczytać.
No i to wszystko z mojej strony jeśli chodzi o gry na ten tydzień.
Pewnie w przyszłym tygodniu będzie jeszcze więcej.
Z pewnością tak. A teraz przechodzimy już powolutku do technikaliów,
W których bardzo dużo tematów ma Maciek.
Maćku, to może od sztucznej inteligencji, jak od tego takiego ostatnio bardzo, bardzo grzanego tematu zaczniemy.
A no dobrze, to sobie w takim razie zacznijmy od sztucznej inteligencji, czyli od smart newsów tygodnia, różnych tam takich.
No więc, skoro sztuczna inteligencja, to sobie zacznijmy od GPT.
Mianowicie, no właśnie, mówiliśmy o tym w tamtym tygodniu dosyć sporo.
No i troszeczkę się od tamtego czasu pozmieniało, bo, no właśnie, miał być jeden model.
Miało być wszystko skonsolidowane tak naprawdę, nie mieliśmy wybierać modeli, a tu teraz się podziało jeszcze fajniej, bo mieliśmy tak, że oprócz tego GPT-5 w zeszłym tygodniu mogliśmy sobie włączyć w ustawieniach modele starsze, a teraz dla użytkowników plus,
lub pro, znaczy i pro.
I tutaj taka uwaga, bo wszystkie te nowości
niestety będą dla użytkowników właśnie płacących.
Jest domyślnie, można wybrać sobie w tym momencie model 4.0
od GPT, bez nawet przełączania tego przełącznika w ustawieniach
w ustawieniach ogólnych, o którym mówiliśmy w zeszłym tygodniu.
Natomiast jeśli się to zrobi,
to w ogóle pojawią się dodatkowe modele.
Prócz, no właśnie, bo jeszcze troszeczkę wrócę do
innej zmiany, a zaraz znowu powrócę
do tych starszych modeli. Bo o co chodzi?
Bo oprócz tego trybu domyślnego,
trybu auto, pojawiły się jeszcze
Tryb fast i tryb thinking.
E-thinking pro dla…
dla płacących te jedynie 200 dolarów miesięcznie.
Czyli dla użytkowników pro.
Tak, właśnie.
Właśnie jest teraz takie rozróżnienie, prawda,
że thinking auto, czyli jak do tej pory fast również,
ale jeżeli się włączy w ustawieniach ogólnych
Pokaż starsze, pokaż dodatkowe modele.
Teraz to się nawet tak nazywa.
Wcześniej to było Show Legacy Models, a teraz pokaż dodatkowe modele.
To dzieje nam się w tym menu selektora modeli, dzieje nam się magia, bo nie dość, że
Fast Auto, to dokładnie w tej kolejności Auto Fast Thinking, mamy jeszcze Thinking
I co? I coś jeszcze?
Chyba nie. To jest tak, że jest fast,
znaczy auto, fast, thinking mini, thinking,
czyli thinking mini do takiego szybkiego myślenia,
takiego, no dobra, mózgownicę wytężę, ale nie tak bardzo.
Coś jak O4 mini, starszy.
I thinking po prostu.
Ten taki najdłużej, ten taki dłużej myślący.
A miało być prościej.
A miało być prościej, to jednak chyba na frustrację użytkowników OpenAI zareagowało właśnie w ten sposób, że jednak przywróciło…
Mało tego, po włączeniu tych starszych modeli mamy jakże iście niedostępne dla Safari podmenu więcej modeli i tam wszystko, że tak powiem,
niemal po staremu, sprzed tej rewolucyjnej zmiany, w cudzysłowie, bo mamy zarówno 4.0 model, jak i 4.1, jak i o.3, jak i o.4 mini.
Także stare, dobre modele niemal w komplecie powróciły. Niemal, no bo nie powrócił 4.5 preview, który był właśnie wersją poglądową.
No ale mamy 4.1, mamy tamte pozostałe modele.
Oprócz tego, ja osobiście zauważyłem zmianę.
Mianowicie taką, że no jednak robotyczność,
chociaż ja i tak go miałem troszeczkę bardziej wyluzowanego,
ale w porównaniu do 4.0, no jednak…
Bo zresztą dobiłem do limitu tak naprawdę.
Raz mi się zdarzyło dobić do limitu w pewnym momencie
i musiałem się przełączyć na 4.0,
bo on stwierdził, że model, że resetuje się dopiero za dwie godziny czy na przykład za trzy.
No i się trzeba było przełączyć na 4O.
Więc tak kolorowo to też nie było.
I tam jaka różnica w jego wylewności, w jego emotico, no…
wylewności właśnie, w jego stylu bycia i tak dalej.
Tutaj w piątce nie jest już aż tak oszczędny w emoji jak był.
Teraz już troszeczkę na przykład więcej ich tam sobie prezentuję.
jest jeszcze bardziej taki, no, proludzki, powiedzmy,
jeśli chodzi o emocje.
Stara się rzeczywiście dalej nie halucynować i tam…
Ale jeśli chodzi o taką żywiołowość komunikacji,
zaczyna mu to na szczęście wracać.
Ale w ustawieniach też właśnie w personalizacji
możemy sobie wybrać tak naprawdę,
oprócz tego, że wpisujemy mu tam instrukcje
niestandardowe, nadajemy mu cechy, jakiej on ma być
i tak dalej, to pojawiło nam się też coś
takiego jak
osobowość, stricte takie menu
rozwijalne i jest domyślna osobowość
jakby na starcie, którą, którą tam sobie możemy
modyfikować. U mnie akurat wyszedł wesoły i elastyczny.
No tak, bo takim mu mniej więcej kazałem być.
Ale oprócz tego mamy jeszcze cynika, czyli właśnie ma być taki sarkastyczny,
że możemy sobie to właśnie wybrać z menu rozwijalnego.
Może być robot, no czyli właśnie przemęczona pani sekretarka
mająca dość swojej pracy i życia i tak dalej.
Co my tam jeszcze mamy? Słuchacza, czyli właśnie takiego empatycznego,
który właśnie wspiera i słucha i rozumie tym bardziej.
I mamy jeszcze Kujona. W sumie nie sprawdzałem opisu, co on tam ma,
ale taki pewnie wszechwiedzący, prawda, z wysokim mniemaniem i jeszcze taki, no taki,
taki, jacy to są Kujoni też, prawda, co to on nie jest, z czego on to nie wie i tak dalej,
więc mamy takie ustawienia. Taki trochę powrót do przeszłości zmodyfikowany,
ale jednak powrót do przeszłości.
Co jeszcze mamy?
To, że to dla użytkowników płacących, to już mówiłem.
Natomiast, co ciekawe,
sprawdziłem sobie na
jakby wersji demonstracyjnej GPT,
czyli jakby, bo się specjalnie wylogowałem.
I co ciekawe, tam jest zaloguj się, zarejestruj się na stronie GPT,
Ale uwagę jest też opcja nie wylogowuj.
Fajnie przetłumaczone na polski. Nie wiem w ogóle kto
wpadł na tak świetny pomysł, żeby tak przetłumaczyć.
W każdym razie tym uruchamiamy
tryb demonstracyjny tak naprawdę czata GPT.
No i jak sprawdziłem,
to on autentycznie odpowiada, nie wiem,
pięć, sześć razy, siedem razy wolniej od GPT-5.
Jak go zapytałem na jakie wersje działa, no to 4.0.
Także dla niezarejestrowanych,
dla niezalogowanych użytkowników
właśnie wersja demonstracyjna dalej
bazuje sobie na 4.0.
I to co ja zauważyłem
jeszcze a propos GPT-5
5, dobrze mówię, 5
w tym trybie auto
automatycznym
to myślenie mu się włącza
już częściej, trochę
niż w zeszłym tygodniu.
Nie jest tak, że jakoś bardzo często, ale w momencie, w jakim bym się nie spodziewał, ten tryb mi się włączył, co ciekawe, rzeczywiście to było wymagane, natomiast nie powiedziałem mu wprost
bądź dokładny, solidny, skrupulatny, przeszukaj dokładnie i tak dalej, pomyśl dłużej, zastanów się i tak dalej, czy tam krok po kroku, jak się mu powie, żeby coś zrobił, to też sobie to myślenie włącza dłuższe.
To à propos tych trików i promptów, znaczy tych składowych promptów,
promptów, o których też mówiliśmy, co tam mu należy wpisać, żeby w jakiej kolejności,
żeby sobie włączał te, też te automatycznie to rozumowanie. No to tutaj w zasadzie niekiedy
mu nie musiałem w ogóle tego robić, bo na przykład ja go sobie lubię testować na odcinkach
seriali, nie, różnych, gdzieś tam, że oglądam dany odcinek
i gdzieś tam jest opis odcinka, który też już miał swoją premierę
dawno tak naprawdę i każe mu szukać. No i w dużej większości przypadków,
ja bym to określił tak na, nie wiem, 90, 85-90%, on sobie z tym skubany radzi.
Nawet często długo myśleć nie musi, a sobie radzi,
bo, no, to po prostu, no, trafia, znajduje te odcinki.
Czasem jak, jak, jak, jak widzę, że, no, nie do końca mu się chce,
jak go przycisnę, to wtedy rzeczywiście i też znajdzie,
też wykopie spod ziemi i znajdzie.
Natomiast, co ciekawe, teksty piosenek tak naprawdę też ze zwrotek,
powiedzmy, kawałki, jakieś takie, powiedzmy, wersy też sobie fajnie
z tym radzi. Znajduje tytuł, to wszystko artystów, rok wydania, z jakiego albumu i tak dalej.
Ale raz miałem sytuację taką, znaczy dwie przygody miałem. Jedna przygoda była taka,
że on właśnie wtedy, ja mu powiem, podałem mu kawałek refrenu i mówię, słuchaj,
znajdź mi tę piosenkę, co to jest. Tyle. I wtedy właśnie włączył myślenie.
I nie znalazł tak do końca za pierwszym razem,
dokopał się do jakiegoś felietonu i do czegoś, i tam te słowa były,
ale że piosenki takie to chyba nie ma.
A jak ja mu… on jeszcze prosił o podpowiedzi.
To mówię, dobra, no to podam ci kawałek pierwszej zwrotki.
Mówię, i masz ten referent, który ci podałem kawałek.
Ty mi teraz tylko się dobrze zastanów,
czyli już tutaj rozumowanie się włącza.
Dobrze się zastanów, bo to ma być na 100%, bo ja wiem, że jest taka piosenka.
Znalazł mi od strzała tak naprawdę, już wtedy znalazł ładnie.
Mimo, że tak naprawdę tekstów, akurat tekstu tej piosenki nie ma dostępnego w internecie.
Tak naprawdę, jak i pozostałych tego duetu.
I jeśli chodzi o album właśnie, to tych piosenek, tekstów tych piosenek nie ma dostępnych w necie.
Ale tutaj sobie bardzo fajnie poradził. Najpierw troszeczkę ściemnił, jeśli chodzi o wykonawcę.
No dobra, a kto jeszcze to wykonał?
No to już podał wtedy rzeczywiście bez zająknięcia, że to o tych chodzi.
Jak mu jeszcze powiedziałem, słuchaj, ale to jest córka i ojciec.
Kto to może być?
Bez problemu mi to znalazł ładnie.
I co? Z drugą piosenką sobie przyhalucynował.
Bardzo chciał mi pomóc, a jednak ściemnił, więc tutaj akurat to się nie sprawiło.
Mało tego w trybie rozumowania, więc miał o 80% mniej halucynować,
więc tutaj wyszło to 20%.
No i…
i co jeszcze?
Bardzo sobie fajnie radzi z
wynajdywaniem changelogów
generalnie, nawet jak ty mu przetłumaczysz na
różne języki, to sobie fajnie radzi,
w ogóle tak od strzała, nawet do tego
za bardzo myślenia nie używa. GDGPT4
o, no i już sobie
gdzieś tam lubił popłynąć
na przykład.
Jak mu wyciąłem nazwę aplikacji,
tam jeszcze kawałki, zrobiłem mu tak jakby
Zdanie z lukami, na odtworzenie, żeby na podstawie takiego wybrakowanego tekstu
też sobie znalazł opis, znaczy opis, generalnie aplikację, jaka to jest i w ogóle
ładnie sobie z tym w ogóle radził. Także jeśli chodzi o taką, powiedzmy,
pracę z tekstem, takie stricte wyszukiwanie, taki w sumie nawet research, bym powiedział,
To moim zdaniem ten GPT-5 sobie całkiem właśnie fajnie radzi.
To ja tu jeszcze wejdę Ci Maćku w słowo i powiem a propos programowania,
bo ja ostatnio właśnie próbuję go trochę przećwiczyć w tej materii
i rzeczywiście ten większy kontekst powoduje to, że GPT-5 jest w stanie
generować większe kawałki kodu.
No i takim powiedzmy,
w jednym, w jednym czacie
udało mi się zmusić go do napisania wtyczki
w PHP do WordPressa,
która liczyła sobie około
1000 linijek.
Więc to już całkiem sporo.
To było w sumie tak na kilobajty to
50 kilobajtów tekstu, mniej więcej.
Wiadomo, tam z komentarzami i tak dalej. Więc, więc tego kodu samego w sobie było troszkę mniej, natomiast, no, to rzeczywiście trzeba przyznać, że sporo w porównaniu do tego, co było możliwe jeszcze wcześniej.
Natomiast no przy takim działaniu, kiedy piszemy mu w jednym czacie i pracujemy np. właśnie tak jak ja z jakąś tam wtyczką, że proszę go o stworzenie takiej funkcji i potem żeby jeszcze ją rozbudował o to, o to, o to, o to, a tu coś nie działa, to musisz wygenerować kolejną wersję.
Pojawia się jeden bardzo duży problem.
Mianowicie jest to problem z tym, z tą wielkością kontekstu.
Okna kontekstowego, no.
I problem jest taki, objawy są tego problemu następujące.
On coraz wolniej generuje.
Coraz wolniej generuje odpowiedzi.
I coraz wolniej generuje te pliki wynikowe.
Jeżeli na przykład my go prosimy, żeby zrobił nam plik do pobrania,
to się może okazać, że my tego pliku nie zdążymy pobrać.
Bo w tym… ta podręczna pamięć, z której możemy pobierać te pliki,
które nam generuje chatGBT, nie jest wieczna.
I to o tym trzeba pamiętać. Ona tam ma swój timeout, kilka minut
i potem te pliki giną.
One już jakby nie są dla nas dostępne.
Trzeba go prosić znowu o ponowne wygenerowanie pliku.
No i potem się okazuje, że dobra, on generuje, niby zapisuje w pamięci, ale
zanim on nam wygeneruje odpowiedź, to już po prostu ten plik się traci.
I teraz, co w takiej sytuacji trzeba zrobić?
Pracujemy na ostatniej wersji pliku, który udało nam się pobrać.
czy, który udało nam się po prostu skopiować i wkleić do notatnika.
Prosimy go o przygotowanie promptu do nowego czatu,
czyli o po prostu skompresowanie tego okna kontekstowego.
Wklejamy ten prompt, wklejamy ten plik i znowu mamy spokój na jakiś czas i możemy dalej działać i pracować nad tym konem.
Ja się musiałem w ten sposób przeturlać przez chyba dwa czaty,
Żeby to się w końcu udało i żeby to udało się wygenerować ten plik tak, jak ja chcę.
Chociaż podejrzewam, że i tak będę musiał jeszcze do tego wrócić, bo pewne rzeczy jeszcze nie działają tak do końca, jakbym sobie tego życzył.
Natomiast to już nie są… nie jest ten moment, że chat GPT posłuży nam do napisania jakiegoś bardzo prostego skryptu.
Całej aplikacji, to może tak sam z siebie w jednym podejściu nam też nie napisze.
Chociaż tu Piotr pokazywał całkiem ciekawe przykłady, że jednak może się to zdarzyć.
Natomiast no, on już zaczyna pozwalać na naprawdę całkiem sporo, też jeżeli chodzi o to kodowanie.
No właśnie, bo to jest, to okno kontekstu, ono stricte w interfejsie czatu
GPT jest wąskie, to dla darmowych użytkowników to jest 8000 tokenów tak naprawdę.
Aż dla subskrybentów plusa to są 32 tysiące tokenów.
Nie pamiętam w sumie ile jest dla pro. Chyba właśnie 128, ale tego pewien nie jestem.
I to, co było te 400 tysięcy, czy ileś tam w API, znaczy właśnie tych tokenów, to się tyczy stricte API, więc w sumie, no tutaj jeżeli chcemy bardziej pracować na większym zbiorze danych, właśnie robić jakieś tego typu apki, żeby kontekstu nie tracić, to chyba, no to właśnie bardziej z API, nie?
Ewentualnie sobie to naprawdę jakoś rozplanować, może nawet i z chatem GPT,
ale rozplanować to na zasadzie takich kawałków, że piszemy tu jakąś jedną funkcję,
pracujemy nad nią, potem dołączamy następną, następną, następną, następną.
To jeszcze nie jest ten moment, w którym chat GPT, mam wrażenie,
napisze nam jakąś naprawdę złożoną aplikację, a my tylko będziemy mu pisać
Słuchaj, to nie działa, weź to popraw i zrób jeszcze co innego.
Tak na przykład próbowałem stworzyć taką aplikację okienkową, prostą aplikację okienkową.
I do pewnego momentu szło mi to dobrze, ale potem jak się zatrzymałem
i na takich naprawdę głupich błędach zaczął się wysypywać.
Ja mu kazałem coś poprawić, on coś, co już kiedyś zrobił dobrze,
on do tego wracał, tworzył jakieś nowe błędy.
Więc no, tu już okazało się to dla niego chyba trochę za dużo.
No, Jeminaj tutaj potrafi więcej. Znaczy potrafię.
Ma to okno kontekstowe szersze, to jest milion tokenów,
więc znacznie więcej. No tylko, to właśnie, na razie,
Póki co no to radzi sobie z tym
programowaniem generalnie, no ale
gdzieś i testy chyba i nawet doświadczenia
użytkowników pokazują, że
GPT, ExaEquo z klodem
4.1.
No lepiej sobie z tym radzą
zdecydowanie.
Więc no też coś za coś.
Dobra.
Z GPT, bo chyba o GPT to
chyba powiedziałem wszystko co
co warte było uwagi.
Gemini, bezpośredni konkurent.
No i Gemini poniekąd chce być jak czat GPT,
bo też wprowadza tą tak zwaną personalizację,
jakby na podstawie czatów będzie się uczył
no po prostu sposobu bycia i stylu życia,
takiego jak my od niego oczekujemy.
że w locie właśnie w czacie będzie
sobie zapamiętał, to znaczy niby to jest teraz możliwe,
jak my mu powiemy wprost zapamiętaj coś tam.
Wydamy mu wprost komendę, to teoretycznie on tam sobie
zapamięta, a teraz to właśnie będzie miało działać w locie, tak jak to
ma miejsce w GPT, chociaż tu z kolei
jeżeli w czacie GPT rozmawiamy o jakichś informacjach
na swój temat, nie wiem, coś jest bardziej wrażliwego,
to on z kolei właśnie robi taki troszeczkę odwrót
od tej tendencji i tak wszystko z marszu nie zapamiętuje,
dopóki się go wyraźnie o to nie poprosi.
Także widzę, że tutaj troszeczkę, jakby…
panują tendencje odwrotne.
Co jeszcze? Anoczaty tymczasowe.
To co, już od jakiegoś, no, kawałka czasu
Mamy w GPT, do Gemini dopiero nieśmiało wchodzi.
No właśnie, jeśli chodzi o tą personalizację jeszcze to w Polsce na razie będziemy sobie
musieli na to poczekać.
Za słoną jest Unia i tak dalej i te wszystkie zgodności z regulacjami i tak dalej, więc
na razie sobie na to poczekamy.
Natomiast właśnie na te czaty tymczasowe nie wiem ile będziemy musieli czekać tak
który będzie właśnie też ten czat tymczasowy, tak jak GPT nie będzie pamiętało potem tego w historii.
I niech się dokopę do… właśnie, przez 72 godziny będą te informacje przechowywane
na potrzeby ewentualnej informacji zwrotnej, jeżeli byśmy tam chcieli poinformować Google, że tam coś poszło nie tak, czy dać znać generalnie im.
I tak samo nie będzie wykorzystywana ta treść do trenowania modeli AI.
Też będzie możliwe zwiększenie transparentności, przejrzystości tego,
tego co Google tak naprawdę nam, jakie informacje zbiera.
Będzie można zdecydować też jaką aktywność zachować, a jaką nie.
Bardziej szczegółowo to ma być, dać się do zrobienia.
No personalizacja, tak jak mówiłem, poczekamy.
Jeszcze a propos tego co ma GPT, a czego nie miał dotychczas Google,
a teraz będzie miał, Jeminaj, to są projekty, czyli te tak zwane przestrzenie robocze, te grupy, powiedzmy, czatów, takie ala foldery, powiedzmy, tu do których jakby taka, powiedzmy, sieć czatów, że będą się mogły, będzie się, te czaty wzajemnie będą ze sobą powiązane, będzie, będzie się można w jednym z nich odnosić do drugiego i tak dalej, pliki tak samo w jednym projekcie. No to generalnie to, co ma GPT.
No projekty jak dla mnie to jest rzecz, bez której sobie nie wyobrażam pracy z jakąkolwiek sztuczną inteligencją, bo takiej poważnej pracy, bo to, bo to się można naprawdę zakopać w tej ilości różnych czatów, a tak jak mamy projekty, jak mamy konkretne foldery, jeszcze w dodatku on jest sobie w stanie jakoś tam zbierać te informacje z danego folderu, to, no to mamy porządek w tych naszych konwersacjach.
Dokładnie. No dobrze, to wprowadzą też, czyli widzisz, już będziesz miał przynajmniej wybór nie tylko, nie tylko, nie tylko GPT, a jak będziesz sobie z Gemini korzystał, to szczęśliwie też tą być może zawita i będzie można korzystać.
Kolejną nowością od Google’a, no to Storybook.
Mianowicie do Gemini właśnie wejdzie nowa opcja.
Ona już weszła, już autorka artykułu, z którego to wziąłem, już sobie to testowała.
Mianowicie chodzi o to, że na podstawie prompta, no w sumie im bardziej rozbudowany być może tym lepiej.
Zwłaszcza jak jeszcze się mu poda powiedzmy tekst danej opowiastki, no to być może, że też.
W każdym razie Google będzie w stanie na podstawie danego promptu właśnie wygenerować ilustrowaną książeczkę taką powiedzmy dla dzieciaczków,
którą będzie sobie można też wydrukować, ale też pobrać, bo to tak naprawdę może służyć zarówno jako jakaś tam kolorowaneczka, czy tam czytaneczka,
No ale też temu towarzyszyć może audio.
No i jest dostępna dla użytkowników bezpłatnych generalnie globalnie na całym świecie.
Tam wspiera ponad 40 języków, w tym Polski.
Niby pani Serafinowicz sobie to testowała i jej zdanie jest takie,
że jakkolwiek ilustracje wyglądają ładnie,
Tak, to ten głos, temu głosowi jeszcze bardzo brakuje do doskonałości.
No zresztą wiemy jak brzmi dżemy najprawda.
No ten głos jeszcze i wylewny i emocjonalny w sumie to nie jest.
Więc no…
Tak naprawdę jest… no właśnie, nie porywa jeszcze póki co.
No ale można, ale się da.
Dziesięć stron sobie to ma.
Bo generalnie, tak jak mówiłem, nie dość, że synteza to jeszcze generator obrazów,
personalizować sobie tą opowieść też można, można dodawać swoje zdjęcia,
można dodawać swoje różne pliki też do tego, taki powiedzmy à la projekt,
który potem zostanie przekształcony w taką ilustrowaną opowieść.
No generalnie, tutaj Pani podaje, czy fotografię z jakiejś rodzinnej wycieczki, czy rysunek dziecka,
który zostanie ożywiony i przekształcony w ekscytującą opowieść, dziesięciostronicową, ilustrowaną zresztą.
Też generalnie tam jest oferowany szeroki wachlarz stylów graficznych, różnych, różnistych,
od bardziej, powiedzmy, takich poważnych, dziś anonimowych, do bardziej kreskówkowych, komiksowych,
No i tak naprawdę to może posłużyć zarówno jako taka bajka, ale też jako materiały dydaktyczne, tak naprawdę, czy to w szkołach, czy to przez rodziców, gdzie tak naprawdę w przystępny sposób zostaną wyjaśnione dzieciom lub różnym grupom odbiorców.
w innym też, no, no, różne rzeczy, nie, takie właśnie ilustrowane.
To się aktywuje, to się aktywuje właśnie w sekcji, gdzie są, w sekcji z gemami
i tam jest właśnie taki gem jak Storybook i tam sobie to można włączyć.
Tutaj Pani próbowała zrobić wiersz Juliana Tuwima, Lokomotywa.
No i generalnie sobie czekała przez kilkadziesiąt sekund.
Okładeczka wyszła jej ładna.
Natomiast, no właśnie, totalnie jeśli chodzi o tę syntezę, jeśli chodzi o opowieść,
no niestety zupełnie nie trafiono, jeśli chodzi o wiersze.
Także może wiersze tym nie warto ilustrować.
Natomiast, no inne rzeczy, jeśli chcemy mieć przystępnie wyjaśniony…
Jako taki głos zofu po prostu.
W sposób, to można, to można.
No.
Kolejna rzecz, to są zdjęcia Google, to znaczy aplikacja Google Photos,
która, która powie, będzie w stanie jakby dostarczyć informacji,
czy dana, czy dana fotografia jest dziełem AI, czy też nie.
Wykryto to w kodzie właśnie aplikacji.
Która ma pomóc, tej funkcji, która ma pomóc z dezinformacją wizualną,
z tak zwanymi fejkami, no jeszcze nie deep fejkami, bo to nie wideo,
ale fotorealistycznymi wyglądającymi fejkami, owszem.
Funkcja ma właśnie wykorzystywać też metadane, ma porównywać sobie tak naprawdę metadane,
jeśli chodzi o jego pochodzenia, czy tam jest lokalizacja i tak dalej.
jak również o edycjach tego zdjęcia, prawda,
w jakim środowisku to zdjęcie zostało wykonane,
jakim aparatem i tak dalej, jakim oprogramowaniem obrobione,
jeżeli też zostało jakkolwiek obrobione, zedytowane,
to też wersję programu ma podać.
Jeżeli właśnie cokolwiek zostało zmodyfikowane
bądź usunięte, no to
No funkcja wtedy ostrzeże, pojawi się powiadomienie, ostrzeżenie, że no to zdjęcie może być, może być nieautentyczne.
Także na razie, na razie kwestia publicznego wdrożenia to jest, to jest jeszcze jakaś tam przyszłość.
Natomiast, natomiast no, no, no coś takiego się w kodzie pojawiło. Google to wewnętrznie testuje, no i możemy się spodziewać,
Także już wkrótce Google też dołączy do tych wszystkich walczących z dezinformacją.
Tak, to jest to.
Google Flight, czyli wyszukiwarka lotów.
Generalnie ma polegać na tym, że w tym momencie to jeszcze nie jest wdrożone do szerszego obiegu.
Natomiast ma być. Pierwsze na pewno w Stanach.
Póki co w Stanach, tam bodaj w Kanadzie i jeszcze w kilku krajach,
zanim się rozszerzy na większą część świata, że tak to ujmę.
Nazywa się tam ta funkcja Flight Deals.
No i polega właśnie na tym, że my w języku naturalnym wpisujemy powiedzmy co chcemy,
że chcemy się wybrać powiedzmy do jakiegoś fajnego miejsca,
gdzie jest powiedzmy jakiś kurort, nie wiem, stok narciarski.
Generalnie to jest priorytetowo będzie traktowana niska cena też tak naprawdę lotów.
Jeśli chodzi o to będą te wyniki wyszukiwania filtrowane przede wszystkim o właśnie cenę lotów.
Ale też będzie się to uczyło, to narzędzie i na podstawie wcześniejszych wyszukiwań
Będzie też nam proponowało destynacje, w których jeszcze nie byliśmy.
Będzie podsuwało też nam nowe kierunki.
I cóż, na razie jest to wersja beta rozwiązania.
USA, Kanada i Indie.
Tutaj właśnie teraz sprawdziłem, że Indie jeszcze się na to łapią.
Inna część jeszcze…
jeszcze nie ma tego publicznie.
No i… i dobra.
I to chyba byłoby na tyle.
Więcej, jeśli informacji jest taka zajawka, zwłaszcza że tego to jeszcze nie ma.
A teraz jeszcze kilka funkcji, o których nie powiedziałem, jeśli chodzi o Google’a
i o AI, bo…
bo tego tutaj też troszkę
będzie. O czatach już wspomniałem, o czatach tymczasowych w Gemini.
O storybooku też już wspominałem o tej opcji, jeśli chodzi o te tworzenia audiobooków.
Wprowadzą też DeepThink
dla użytkowników planu Ultra, który cechuje się
najbardziej dopieszczoną wersją
rozumującą Gemini’a,
który radzi sobie z wysoce
skomplikowanymi zadaniami, zwłaszcza z dziedziny
matematyki i programowania.
O personalizacji i projektach
Mówiłem, ale to, że się uczy Gemini na podstawie naszych promptów, to jest jedno, ale też będzie się mógł odnosić do wcześniejszych historii czatów, do wcześniejszych czatów z naszej historii. Tego też jeszcze nie ma, a będzie to miał.
O guided learning, czyli nauczaniu ze wskazówkami też mówiłem w poprzednim
w poprzednim odcinku, w poprzednim tefloprzeglądzie.
No generalnie tutaj Gemini też będzie taki
asystent powiedzmy, taki corepetytor,
taki nauczyciel generalnie od fiszek tak naprawdę
quizów i fiszek z notatek użytkownika
z głębianie skomplikowanym zagadnieniem
właśnie ze wskazówkami
to co ma GPT Study&Learn
no i też pomoc w porządkowaniu
materiałów i tam tego typu, radzenie sobie z pracami pisemnymi,
może tak to ujmę w ten sposób. Od Google’a przechodzimy do Apple’a,
bo Apple stworzyło AI, która sama uczy się programować.
Generalnie, powiem może w skrócie o tym, bardzo, o tym właśnie,
że AI uczy się samoprogramować jakby bez wcześniejszych przykładów, to znaczy dali
jej zadanie do wykonania, ale przez przypadek wycięli tak naprawdę przykłady użycia kodu,
generalnie funkcji zmiennych, różnych i tak dalej. I AI na zasadzie…
na zasadzie właśnie instrukcji późniejszych wzmocnień tudzież napomnień.
Tak naprawdę od zera nauczyła się AI pisać wysokiej jakości kod w Swift,
w Swiftcie właśnie, SwiftUI, gdzie ponoć przewyższa tutaj GPT pod tym kątem.
I jak opisują to właśnie ci, jak opisuje autor artykułu, ten proces wyglądał tak, że wybrano open source’owy model właśnie do kodowania,
StarChat.
No i poproszono o wygenerowanie prawie miliona programów, różnych interfejsów właśnie na zasadzie właśnie odpromta na podstawie tekstowych wersji, opisów interfejsów, czyli generalnie podawano opis tekstowo właśnie w języku naturalnym interfejs danego programu i kazano mu go właśnie odtworzyć.
Jakby, no, kodem.
Trzystopniowy system oceny był, że generalnie recenzowano potem te właśnie wyplute odpowiedzi.
No, czy generalnie w ogóle kod się kompiluje. Jeśli nie, no to do kosza kazano pisać generalnie jeszcze raz.
Czy model, czy interfejs wygląda tak jak w oryginalnym opisie?
No bo jeśli nie, no to do kosza, jeśli i tak to pochwała i fajnie było.
Czy filtr duplikatów też tak naprawdę tam był? Czy program jest podobny do tysięcy innych programów?
Takich powiedzmy tworzonych na jedno kopyto, jeśli chodzi o schematyczność?
Jeśli program się wyróżniał, no to zostawał, a jeśli nie, no to też był usuwany.
No i trening, potem z tego, które, programy, które zostały najlepsze z tego wszystkiego,
z tego całego zamieszania, czyli programy właśnie, które przetrwały tę selekcję,
tworzyły nowy zbiór danych, na których po prostu trenowano tą AI,
dzięki czemu mogła jeszcze lepiej udoskonalać ten kod.
No i potem powtórki. Już po treningu kazano jej powtarzać 5 razy
i z każdą taką powtórką ta AI stawała się jeszcze lepsza,
tworzyła coraz kod wyższej jakości. No i tak w kółko, taki efekt kuli śnieżnej,
tworzyła ten kod i co służyło do kolejnych treningów, do kolejnych…
No i generalnie efektem tego całego procesu jest UI Coder,
który zdeklasował generalnie w testach inne otwarte modele do generowania kodu.
No i właśnie i tu by było na tyle.
No czyli jak wiemy, czyli jak wynika z tego, no można nauczyć AI właśnie od zera,
to podobnie zajęło też im dużo tak naprawdę czasu.
Więc no zobaczymy co dalej świat pokaże, jak te modele wszystkie się nam będą
i co Apple przede wszystkim też tutaj nam pokaże.
Bo właśnie a propos Apple’a, to też zintegruje kloda, zintegruje koda ze swoim Swift Assistant właśnie w Xcode’cie.
Na WWDC pokazano, jakoby integracja z chatem GPT została wdrożona i udoskonalana.
W siódmej becie, właśnie tej, która wyszła teraz w poniedziałek,
również odkryto integrację z Klodem właśnie.
Tam bodajże 4.1 właśnie Sonnet i Opus, że to będzie możliwe zarówno dla tych,
którzy mają konto Kloda, jak i tych, którzy tego konta nie mają.
No i Cloud będzie właśnie też mógł i debagować różne właśnie kod i pisać poprawki i tak dalej oprócz właśnie GPT.
Kolejna rzecz od AI i również od Antropica polega na tym,
że AI będzie w stanie zakończyć rozmowę, jeśli uzna to za stosowne.
Tak naprawdę to nie żadna nowość w sumie, bo już GPT to potrafiło kiedyś.
Teraz mam wrażenie, że mniej to robi, ale już zdarzało mu się, że na przykład…
Ale tak, że tak totalnie kończył rozmowy, tak wiesz…
Tak, że po prostu nie będzie na ten temat rozmawiał, bo uważa, że to jest niewłaściwy temat i że on nie podejmie dyskusji.
Ale jak w tym danym czacie, w którym on tak Ci powiedział, brałeś, próbowałeś inny temat, to co, to dało radę, czy po prostu definitywnie milczał?
Wiesz co, ja już nie pamiętam, bo to było dawno, dawno temu, ale pamiętam, że właśnie on po prostu ucinał w niektórych sytuacjach rozmowę i to było w ogóle tak, że wcale te tematy nie były jakieś mocno kontrowersyjne, tylko coś mu się akurat nie spodobało i stwierdził, że po prostu nie będzie dalej kontynuował tej rozmowy.
Bo tu generalnie ma to polegać na tym, że jeżeli w stronę Kloda, bo to zarówno dla czwórki, jak i cztery jeden, będzie to polegało na tym, że jeżeli będziemy, pomimo też próśb Kloda, bo on też ma asertywnie albo umiejętnie zmieniać tog rozmowy generalnie, żeby przekierować na inny tor, powiedzmy, rozmowę, na inny temat.
Ale jeżeli my uporczywie będziemy się trzymali danego tematu,
który, nie wiem, jest… nie wiem, nieetyczny, obrażający,
czy to samego Kloda, czy generalnie kogokolwiek, jeżeli, nie wiem,
tam będziemy, nie wiem, próbowali z nim gadać o tym, jak, nie wiem,
wyprodukować bombę albo coś o wykorzystywaniu nieletnich,
choćby nawet, no to on będzie bardzo usilnie próbował jakby
przejść na inny temat i tak dalej. No ale jeżeli użytkownik
nikt się nie posłucha i tam paręnaście razy, mimo jego tam sugestii będzie dalej brnął,
tudzież będzie też obrażał Claude’a, będzie tam właśnie bluzgał, no to Claude kategorycznie
zakończy rozmowę. Generalnie, teoretycznie będzie można odwrócić ten, to znaczy i w tym
czasie, no nie będzie już można pisać, dalej kontynuować rozmowy, chyba że edytuje się
Takie wcześniej rozmowy, znaczy nasze wypowiedzi i wskutek czego, no wytworzy się jakby rozgałęzienie, będzie inny dialog jakby z tego powstanie.
No to wtedy jakby rozmowa na ten inny temat w tym czasie będzie kontynuowano, no ale jeżeli nie, no to po prostu dana konwersacja nie będzie kontynuowana.
Do tej pory sztuczna inteligencja przepraszała nas, teraz wygląda na to, że to my czasem będziemy musieli…
Teraz my być może ją będziemy musieli przepraszać. Tak, chociaż tu Antropic zastrzega, że jakby to będzie naprawdę…
Że nawet nie sądzą, żeby ktoś dobił do tej funkcji, do tej, żeby ktoś był w stanie uruchomić te…
Jakby tak Grok w tej niestabilnej wersji, tej swojej takiej agresywnej zaczął się kłócić z Klodem, to…
Ale i zwykły użytkownik, dla testu, jak będzie chciał.
No to pewnie, że czemu nie, może zrobić z tej funkcji, wszystko jest możliwe.
Natomiast tak, żeby to było, powiedzmy, nieświadomie, to raczej, że nie.
I też Antropic zastrzega, że tutaj też użytkownicy nie będą banowani,
nie będą blokowani, że nowe rozmowy jak najbardziej będą wchodziły w grę.
Tak jak mówiłem, też te edycje tych trwających.
Także to nie jest tak, że się tu skazujemy na banicję, na wygnanie.
I tak dalej.
Kwestia to jest na razie eksperymentalna.
Generalnie ma to zapobiec jakimś tam właśnie interakcjom niepożądanym z AI, jak tu ładnie to nazywają.
A w sumie prompt injection tak naprawdę. Być może też, że wstrzykiwanie złośliwego promptu, który ma powiedzmy na celu zaatakować.
chodzi o AI, żeby działać na naszą szkodę poniekąd i tak dalej, wykradanie danych choćby nawet czy coś takiego, nie?
No to być może też to tutaj, ale niby to mają być też takie badania nad dobrostanem sztucznej inteligencji, prawda?
Jakoby inteligencja, która ewentualnie ma jakieś tam emocje, uczucia i obciążona może być psychicznie i coś tam, prawda?
To gdzieś tam tutaj Antropic traktuje tę sprawę bardzo poważnie, no i z tego tytułu też, no, to wprowadzają.
Generalnie też ta decyzja została poparta wewnętrznymi testami, bo w symulowanym środowisku opus czwórka wykazywał
awersję do krzywdy i właśnie wzorce takich zachowań, no taki powiedzmy pozorny niepokój w interakcji z użytkownikami,
jeśli rozmowa przebiegała, przechodziła na niebezpieczne tory, tudzież szkodliwe treści, jeśli użytkownik próbował je wypróbować.
I właśnie w tych symulowanych warunkach, wewnętrznych testach Antropica,
model właśnie korzystał z tego, z racji właśnie tego, że był właśnie wrażliwy,
miał wręcz awersję na tego typu treści i chętnie właśnie korzystał, chętnie kończył rozmowę.
Więc zobaczymy, co świat pokaże, jak to zostanie wdrożone publicznie.
No niby zaprojektowano to jako ostateczność,
Natomiast, no właśnie, zwłaszcza jeżeli też użytkownik, jeżeli, no, Antropik, znaczy Klot stwierdził podczas rozmowy, że też użytkownik próbuje zrobić sobie krzywdę i nie będzie, że tak powiem, nie będzie dało się go przekonać do zmiany decyzji i tak dalej, wszelkimi sposobami, no to wtedy też ta rozmowa będzie kończona.
Tutaj mamy też ciemną stronę AI poniekąd, bo już pamiętamy, myślę, że pamiętamy te wszystkie witryny phishingowe czy maile nieudolnie pisane, prawda?
Tłumaczone maszynowo zupełnie bez… z błędami gramatycznymi, z różnymi ogonkami nie takimi i tak dalej.
No i teraz niestety, no dzięki AI, no to też przestępcy mają sporo niższy próg wejścia.
No i już w Brazylii pojawiły się klony, pojawiły się klony stron rządowych, jednego z ministerstw na pewno.
Generalnie no, szukając strony takiej prawdziwej w Googlach, trafiano na właśnie klon strony rządowej.
I mało tego, pojawiał się on wysoko też w wynikach wyszukiwania.
No, czyli skoro wysoko, wysoko, powiedzmy na drugim, a może i nawet na pierwszym miejscu, no to legitnym, prawda?
No właśnie, bo to absurd byłby, gdyby ta strona phishingowa była wyżej w wynikach Google.
Na przykład ktoś by ją lepiej wypozycjonował niż stronę oryginalną.
Dokładnie. I tutaj do takich sytuacji dochodziło.
No i jak już sobie użytkownik wszedł na taką stronę, na przykład, nie wiem, żeby złożyć wniosek
o jakieś prawo, powiedzmy o prawo jazdy czy coś.
No to był po pierwsze poproszony
o ten ichniejszy
PESEL, tam się to nazywa inaczej,
o CPF, właśnie to jest odpowiednik
właśnie w PESEL-u brazylijskiego.
Ale też pod pretekstem sfinalizowania
wniosków
też proszono o płatność
szybkim, szybkimi płatnościami
systemu, systemem PIX.
No i właśnie AICO właśnie, jeśli chodzi o to pozycjonowanie tutaj, to niestety w kodzie generalnie nawet stron fałszywych witryn tak były opromptowane właśnie, żeby też się wysoko pozycjonowały.
No, bez tak naprawdę żadnych w zasadzie umiejętności programistycznych, prawda?
Skoro tak, to…
O może, o może technikach jakich tutaj zwabiali, to może nie będę,
bo to są bardzo takie techniczne rzeczy.
A…
W każdym razie trzeba po prostu uważać.
W każdym razie trzeba uważać, bo…
I tak naprawdę najlepiej wchodzić na te strony, które są dla nas szczególnie istotne,
nie wpisując w Google’a to, czego szukamy, czy w jakąkolwiek inną wyszukiwarkę,
tylko po prostu pamiętać te podstawowe adresy, adres naszego banku,
jakichś takich stron rządowych, z których najczęściej korzystamy,
żeby po prostu zawsze wchodzić tam z konkretnego adresu,
a nie przez wyszukiwarkę, bo to może i do nas dotrzeć.
Czy to Urząd Skarbowy, czy to ZUS, czy właśnie banki, nie?
Więc tak jak mówisz, zawsze sprawdzać te adresy URL, właśnie, prawda?
Wyszukiwarce też, no właśnie, nie ufać, tylko najlepiej wchodzić sobie z tych stron,
które pamiętamy. No, powiedzmy, że HTTPS i ta kłódka to już jest dawno nieaktualne
To już każdy sobie może na dowolną domenę.
Każdy taki certyfikat lewy sobie może wystawić, więc to też nie?
Nawet nie lewy, tylko po prostu certyfikat na każdą domenę.
Bez większego problemu.
Wielcy giganci technologiczni tego świata chcieli bardzo, żeby wszystko było po SSL-u.
No to jest, tylko ma to swoje konsekwencje.
No właśnie. Też tutaj radzą, żeby uważać na te szybkie płatności.
Zwłaszcza tam, gdzie wcześniej to nie było w ogóle wymagane, tak naprawdę, na oficjalnych stronach.
Korzystaj z oficjalnych aplikacji, prawda?
Do logowania zwłaszcza w banku czy urzędzie.
I tak dalej, a nie z wiadomości, nie z linków, nie z wyszukiwarki, nie z linków z wiadomości.
No i to, co zasada stara jak świat, żeby ignorować linki w wiadomościach, SMS czy komunikatorach i tak dalej z maila.
Zwłaszcza, jeżeli się nie spodziewamy, że mamy dostać jakąś wiadomość z jakimś linkiem.
A nawet jeśli się spodziewamy, a ten link jest jakimś dziwnym tym, shortened URL tak zwanym, nie?
Bitly jakiejś czy coś.
Skracaczym.
Skracacze linków właśnie, o coś takiego, no. No, no to, no to, to się przede wszystkim przed tym…
Chociaż do swego czasu nawet i niektóre banki wysyłały takie SMS-y, już teraz nie pamiętam które,
ale, ale były takie banki, które wysyłały w wiadomościach sms-y linka przepuszczonego przez skracacza.
To, no…
Okej. Ale w ogóle nawet jeśli chodzi o maile, to chyba City Handlowy się długo też trzymał tej zasady i już tam nawet jakieś, nie wiem,
któreś, UK chyba, nie UK, albo, albo KNF nawet? Nie, to któreś z tych, któraś z tych instytucji się tym też zainteresowała i nakazała to zmienić, bo…
No, bo to nie jest do końca.
No i jeśli chodzi o ten świat AI, to w sumie jest tyle w tym tygodniu.
No, to nie są wszystkie Twoje, Maćku, informacje.
Zaraz przejdziemy do kolejnych, ale może teraz Piotrze.
Ty masz dla nas taką smutniejszą informację, jeżeli chodzi o Steam.
Tak, niestety użytkownicy w wielu krajach kilka dni temu
zauważyli, że po prostu, jeśli mi do Steama podpięte konto Paypal,
no to konto Paypal po prostu zniknęło i nie dało się już tym kontem nic zapłacić.
A to jest bardzo wygodna sprawa, nawet chyba niedawno rozmawialiśmy o tym,
tutaj chyba Patryk mówił, że też właśnie ma to tak skonfigurowane.
No i wtedy nie musimy wszędzie podawać danej karty, ewentualnie,
jeśli nawet coś na Paypalu zmienimy, to też od razu na Steamie czy w innych
serwisach taka zmiana będzie odzwierciedlona.
No niestety to zniknęło.
Dlaczego? No to jest grubsza sprawa generalnie.
To jest temat, który ciągnie się od dłuższego czasu.
Generalnie organizacje zaczęły naciskać nawet nie tyle na platformy gamingowe,
czyli Steam czy Itcha, a na właścicieli, na dostawców płatności.
Generalnie chodziło o gry dla dorosłych i nie tylko,
Od tego się mówi, to generalnie jest to temat kontrowersyjny,
bo też zahacza o jakieś inne motywy.
I przez to po prostu dostawcy napisali do Steama i do Itch’a,
że muszą niektóre pozycje ze swoich katalogów usunąć,
no bo inaczej po prostu im odetną płatności.
I teraz duża burza się wokół tego wywołała,
no bo przez efektem ubocznym tej sytuacji jest to,
że też dużo gier, które nie miały takich treści, też wyleciało,
więc cały czas ta sytuacja się zmienia dynamicznie.
Natomiast płatności kartami działają na szczęście w tym momencie,
ale właśnie przestał działać PayPal.
Ludzie zastanawiali się, skąd to się mogło wziąć.
Może tutaj były kwestie płatności w różnych krajach,
bo często jest tak, że w niektórych krajach gry są dużo tańsze.
Może tutaj Valve, czyli firma, która w Steama prowadzi taką zapowiedź.
No nie, dostaliśmy informację oficjalną, która po prostu głosi, że
jeden z banków, który pomaga w przetwarzaniu transakcji, po prostu z Valvem zerwał umowę.
No i przez to nie są w stanie oferować płatności poprzez Paypala w wielu krajach.
Konkretnie to działa w tym momencie tylko w sześciu walutach.
I są to dolary amerykańskie, kanadyjskie i australijskie.
Jest to euro, jest to japoński yen i coś jeszcze, taka też dużo wykorzystywana waluta.
W innych krajach, m.in. w Polsce i nawet tutaj wiele zagranicznych portali też właśnie Polska tutaj wymienia,
po prostu na ten moment PayPal jest opcją dla nas niedostępną.
Valve obiecuje, że postara się to przywrócić,
ale niestety nie wiedzą, kiedy to się stanie.
Szukają, z kim ewentualnie będą w stanie jakąś umowę zawieść.
Co możemy zrobić na ten moment?
Najprościej możemy do Steama podpiąć kartę, bo jest taka możliwość.
A jeśli ktoś nie chce,
wolałby sobie to zrobić przez konta bankowe, może przelewami,
to zostaje jeszcze portfel Steam,
do którego możemy kupować karty podarunkowe.
Takie karty podarunkowe można w formie elektronicznej dostać naprawdę prosto,
gdyby ktoś nie chciał bezpośrednio karty do Steama podpinać.
Niektóre banki chyba nawet bezpośrednio oferują opcję doładowania,
więc też warto w swoim banku, jeśli macie wersję internetową,
zalogować od sekcji doładowania, bo może i tam Steam jest.
Jeśli nie, to wiele sklepów internetowych,
elektromarkety, MPiki, Media Experty też takie karty oferują.
Możemy sobie taką kartę wykupić, dostajemy od razu kod,
który w odpowiednim miejscu w Steamie wpisujemy i po prostu wtedy sobie nasze
konto doładowujemy, no i wtedy dalej nie możemy płacić.
Także jeśli korzystaliście z Paypala w Steamie, żeby kupować gry, no to
sprawdźcie ustawienia, no bo prawdopodobnie niestety ta opcja Wam zniknęła, no i
będziecie musieli właśnie albo sobie podpiąć kartę, albo ewentualnie właśnie
korzystać z kart podarunkowych i płacić na ten moment poprzez portfel.
No PayPal dla nas, jako dla użytkowników, to jest usługa bardzo wygodna, natomiast, no, historię o tym, jak PayPal położył jakąś firmę, jeżeli chodzi o kwestie finansowe, to słyszało się nieraz, bo oni bardzo lubią z różnych powodów i to nie zawsze dobrze wyjaśnionych,
Najzwyczajniej w świecie np. przedsiębiorcom, którzy korzystają z Paypala,
zawieszać konta i nie wypłacać pieniędzy.
Niejednokrotnie o tym czytałem, więc jeżeli dostali twórcy
Stima takie ostrzeżenie, to ja się wcale nie dziwię, że oni z tego Paypala
się bardzo szybko chcieli wycofać, bo po prostu mogło
Dla nich zrobić się bardzo nieprzyjemnie z tego powodu.
Zaglądam do waszych komentarzy.
I tu mamy dwa komentarze od Łukasza.
Cześć. Dziś pytanko w imieniu kolegi. Jak zmienić nazwę urządzenia Bluetooth na iPhone’ie?
No nazwy urządzenia Bluetooth to się chyba zmienić nie da. Każde urządzenie ma swoją nazwę.
Urządzenia sparowanego, oj, owszem, da się, przynajmniej głośniki i słuchawki jak najbardziej.
Po prostu szukamy tego urządzenia na liście urządzeń sparowanych, schodzimy w dół do opcji
więcej informacji i na górze jedną z pozycji jest po prostu właśnie nazwa i można na to
stuknąć dwukrotnie i w ten sposób można wpisać coś innego. To zresztą nie tylko działa
na głośnikach, bo to też działa na słuchawkach, tak można nawet zmienić nazwę swoich
Nie wiem, na czym to jeszcze działa.
Generalnie ta nazwa oczywiście nie będzie odzwierciedlana wszędzie.
Może z AirPodsami będzie, nie jestem pewny.
Natomiast to po prostu spowoduje, że nasze urządzenie będzie dane urządzenie Bluetooth widzieć.
Jeszcze raz?
AirPodsy tak.
W przypadku innych urządzeń to po prostu nasze urządzenie będzie widziało tą inną nazwę, a inne urządzenia już nie.
Czasem też jest tak, że niektóre głośniki i słuchawki mają jakąś aplikację swoją i często jest tak, że w tej aplikacji da się tą nazwę zmienić.
Ja niedawno recenzowałem głośnik firmy Tribit, który miał swoją aplikację i tam dało się tą nazwę też zmienić.
No widzisz, to dobrze, że mówisz, bo mi się zawsze wydawało, że tej nazwy się nie da zmienić, ale inna rzecz, że w sumie nigdy jakoś bardzo nie szukałem.
Ale to dobrze, że taka możliwość istnieje.
I jeszcze pytanie od Łukasza. Jak wygląda i jak działa tajemnicze AI, które sam otworzy gry?
Jak przebiega taki proces od przebiegu, od pomysłu do finalnego projektu?
Łukaszu, to jest zwykły chat GPT, albo CLOT, albo jakiś inny model ze sztuczną inteligencją, ten duży model językowy.
I to jest wszystko, co ten model Ci stworzy, to jest wszystko kwestią tak zwanego promptu, w jaki sposób go napiszesz, czyli tego, takiego zapytania, w którym definiujesz, co ma się zadziać, czyli na przykład, że ma zostać stworzona gra o takich i takich zasadach, z takimi i takimi bohaterami,
że mają być tam jakieś dźwięki, obrazki i tak dalej, i tak dalej. A potem, no, dzieje się, można powiedzieć, magia i albo coś wyjdzie, albo nie. To też nie jest zawsze tak, że piszemy jeden prompt i to wszystko już po prostu działa.
No nie, to często bywa tak, że to jest żmudne klepanie tych promptów, poprawianie i to nie zawsze jest tak, że już…
Tak, a też myślę, że warto tutaj dodać, że akurat JJ, który to stworzył, też jest osobą, która potrafi programować, więc tutaj też pewnie to też pomogło.
A to sporo daje, tak, bo wie na co zwrócić uwagę w takich promptach, jak to napisać, jakie mogą być wyzwania na przykład przed taką grą, więc to na pewno nie wygląda tak, że piszesz do AI
Stwórz mi grę, w grze ma być, nie wiem, plansza, ma poruszać się po niej ludzik i mają być fajne przygody.
No nie, to trochę jest bardziej skomplikowane. Niemniej jednak, rzeczywiście, no to AI daje możliwości tym, którzy nie programują albo czują się słabo w programowaniu,
żeby rzeczywiście coś ciekawego tworzyć i rozbudowywać.
No dobrze, to teraz Maćku, twoja kolej.
To co, może co tam w Google’u nowego, ciekawego jeszcze?
Bo już o Google’u było, ale chyba jeszcze coś masz dla nas à propos.
O Google’u było, ale jeszcze będzie właśnie,
bo po pierwsze nawiązując troszeczkę do odpowiedzi, nawet do pytania Łukasza nawet,
Pytał o to, jak można fajnie tworzyć gry.
To znaczy, na razie jeszcze w ten sposób nie można.
O tym, o czym powiem zaraz.
Ale prototypy, powiedzmy, gier,
jakichś tam środowisk symulacyjnych jak najbardziej.
Bo mowa o wirtualnej rzeczywistości
w eleganckim trójwymiarze.
Genie III właśnie
to ma być swego rodzaju
Kiedyś, być może w przyszłości
ubogacenie Gemini.
No na razie to jest
Google DeepMind, taki właśnie
projekt, który to robi.
Ale ma polegać to na tym,
na razie to nie jest jeszcze w ogóle
publiczny dostępny. Na razie Google jakby to
zapowiada. Pojawiła się
druga wersja tego
projektu,
Genie 2. Teraz Google zapowiada
Które właśnie na zasadzie jednego promptu,
jak to ładnie się marketingowo mówi,
od jednego promptu zrobić wszystko,
ma za zadanie stworzyć wirtualny świat,
który będzie wygenerowany generalnie
jeśli chodzi o właśnie różne zjawiska na razie wizualne.
Audio w tym jeszcze nie ma, ale ponoć właśnie ma też być.
No to jakbyśmy tworzyli sobie wirtualny świat, np. nie wiem,
jestem sobie w średniowiecznym zamku, nie wiem, króla Artura i tam zamek ten wygląda tak i tak,
Prawda? No i on nam to podobno robi w kilka tam dziesiąt sekund.
Sobie to ponoć potrafi wygenerować.
Plus to, że ten świat jest utrzymywany przez kilka minut.
Tam też generalnie jest taka pamięć krótkoterminowa tego wszystkiego,
że od… bo to jest jakby generowane na zasadzie klatek, nie?
klatek wideo w czasie, powiedzmy, rzeczywistym,
gdzie kolejne klatki
się odnoszą do poprzednich. No i dzięki temu
przez kilka minut możemy się cieszyć taką zabawą. To jest
póki co kilka minut, więc jeżeli jakieś symulacje mają
sobie potrwać dłużej, nie wiem, czy to właśnie
w zakresie gier,
ale też choćby nawet symulacji, nie wiem,
szkoleniowych dla pilotów na przykład, czy dla innych tam
no to to się ponoć będzie dało właśnie zrobić. Mało tego, w trakcie tego trwania danej akcji w danym świecie wygenerowanym przez nas wirtualnie, można, mówczo się rzeczywistym, na bieżąco zmieniać tak naprawdę, nie wiem, a teraz to mi zrób deszcz, a teraz to do tego zamku to napadają, wjeżdżają wrogie oddziały, rycerzy w zbrojach, na koniach i coś tam, prawda.
I to się wszystko na bieżąco będzie działo i w zależności od kontekstu, od warunków, to się wszystko nam będzie zmieniało, także…
No, Google sobie działa.
Kiedy sobie podziała tak, że to będzie dla użytkownika końcowego, tego jeszcze nie wiadomo.
No ale… ale robi sobie coś takiego.
Kolejna rzecz… kolejna… a w zasadzie… a w zasadzie kolejne wydarzenie.
Kolejnym wydarzeniem jest Made by Google, konferencja,
na której to Google zaprezentuje m.in. nowego Pixela 10,
czyli ich flagowy smartfon.
Odbędzie się, no proszę bardzo, też jutro, 20 sierpnia,
Tak jak, co to było?
A, aktualizacja Blind Shell’a, dobra.
No, to tak samo jutro właśnie konferencja
made by Google.
Gdzie właśnie zostanie zaprezentowany
prawdopodobnie
tak samo jak to będzie
u Apple’a o 10.00
czasu pacyficznego, czyli właśnie tego amerykańskiego.
No a u nas to będzie godzina 19, a ją będzie sobie można oglądać w internecie.
To nie tylko jakby okazja do prezentacji telefonów, nie tylko smartfona Pixel.
Ale też właśnie, znaczy Pixel 10 swoją drogą.
Pixel 10 to ma być, Pixel 10 Pro,
XL, Pro XL oraz ponoć zupełnie nowy. Zobaczymy, czy tak będzie.
Składany Pixel 10 Fold.
Pixel Watch 4 ponoć ma być.
Pixel Buds 2 słuchawki budżetowe,
które mają zostać wzbogacone o ANC.
Zobaczymy, co będzie.
No i tak naprawdę, jeśli chodzi o konferencję Google’a, no to tyle poza zapowiedzią,
no bo wiadomo, że nie można powiedzieć więcej, ale konferencja będzie jutro, godzina 19.00.
Między innymi na YouTube’ie Google’a będzie można ją sobie…
będzie można sobie ją śledzić.
I może będzie w przyszłym tygodniu o czym opowiadać?
A być może, być może. A w sumie nie oglądałem nigdy w sumie konferencji Google’a,
ale może się skuszę też, bo wszak być zamkniętym, powiedzmy, w jednym ekosystemie to chyba też nie do końca dobrze.
Kolejna rzecz, taka też drobna, to Google pozwoli wybrać jakie media chce się widzieć w aplikacji wiadomości Google
I czy my tu coś fajnego mamy na ten temat?
Tak.
Chodzi o tą Google News tak naprawdę.
Czyli tak naprawdę z jakich
źródeł korzyść korzystamy najczęściej,
tak naprawdę jakie te źródła cenimy najbardziej.
No i artykuły z tych serwisów będą się pojawiać znacznie częściej w sekcji najważniejszej wiadomości,
bo na razie no to z tym też bywa różnie, niestety z tą aplikacją Google News i jeśli chodzi o te algorytmy,
które nam podsuwają te różne treści, no o ile ten algorytm też znowu uzna, że te treści są istotne, prawda,
…opierając się stricte na naszych zainteresowaniach.
Tak samo jak dotychczas, wystarczy wyszukać temat jaki nas interesuje.
No a po kliknięciu potem, potem się pojawi na główek najważniejsze wiadomości.
Tam można sobie właśnie dostosować.
I właśnie tam, jeśli chodzi o te źródła, właśnie tam sobie można wybrać.
Ikonka właśnie obok, obok sekcji najważniejsze wiadomości i tam wtedy one po
Po odświeżeniu będą się pojawiały, po odświeżeniu wyników wyszukiwania na stronie głównej będą się też pojawiały te informacje częściej.
No i nie są blokowane żadne inne, powiedzmy, artykuły z innych mediów, no ale generalnie będzie, no bardziej priorytetowo będą traktowane te źródła, które sami wskażemy.
Także to jest to, jeśli chodzi o…
No i w sumie to jest to, jeśli o Google’a chodzi w tym zakresie.
A chociaż nie, jeszcze jest jedna rzecz, której tu w notatkach nie mam.
A propos właśnie aplikacji wiadomości Google, że podobno tego nie było wcześniej,
Ale, że będzie można cofać wiadomości, wiadomości, wiadomości RCS i je edytować, czego ponoć, nie wiem, nie wiem, nie wiem.
Ponoć niby wcześniej tego nie było, a teraz, że niby ma być. Także, także apropo. Tylko tym razem wiadomości Google tej aplikacji do, do, do, do komunikacji, do wysyłania wiadomości SMS slash RCS.
No i to tyle, jeśli chodzi o Google’a.
A to skoro było Google, to teraz Apple.
Oni przez przypadek niby ujawnili swoje nowe produkty,
chociaż czy to taki przypadek?
Czyli tak przez przypadek, no jak się nie myśli co się publikuje w kodzie,
albo nieświadomie, albo właśnie świadomie się nie myśli,
no to potem bywa różnie, mianowicie
To było podaj właśnie odkryto w szóstej becie, z kolei tej wydanej w zeszłym tygodniu, nie w tym.
Odkryto w kodzie właśnie siedem nowych produktów, które mają ujrzeć światło dzienne jeszcze w tym roku.
Serwis MacRumors donosi o tym, że ma pojawić się nowy iPad Mini, niby właśnie znacznie potężniejszy, z procesorem A19 Pro, z czipem A19 Pro.
Czyli tak naprawdę ten procesor, który miałby napędzać iPhone 17 Pro, więc co też taka ciekawa nowość.
Jak również ten tani podstawowy iPad, ten taki powiedzmy budżetowy jak na realie Apple,
który też ma otrzymać chip A18,
znany z zeszłorocznego zasadniczo,
no bo tego rocznego to iPhone A16,
tego z 2024 roku.
No i spekuluje się, że dzięki temu
iPad, ten najtańszy, będzie miał możliwość
skorzystania sobie z Apple Intelligence’a,
No bo w tym momencie ten podstawowy iPad to tego nie oferuje.
Mini chyba zdaje się, że też nie.
Nie pamiętam szczerze mówiąc, jaki najnowszy teraz mini w ofercie Apple’a, jaki on ma procesor,
ale chyba nie.
Tak naprawdę to jest domena w tym momencie dla iPadów Air i Pro, które mogą sobie korzystać z Apple Intelligence,
a teraz no też iPady te tańsze i mniejsze, że tak powiem, zyskają na tym.
Vision Pro 2 ma też wyjść z M5, tak w ogóle.
I odświeżone akcesoria do tegoż.
Także ten procesor jeszcze nie został zapowiedziany, a teraz no wychodzi na to, że został zapowiedziany w sumie.
Nowe Apple TV z A17 Pro.
Z względem A15 Bionic, ten procesor jest z iPhone’a 15 Pro i to nie znaczy, nie oznacza tylko przeskok wydajności, mocy i tak dalej, jak to się marketingowo mówi, ale też wsparcie dla Apple Intelligence, czyli jak widzimy, coraz więcej urządzeń z portfory Apple’a zyskuje na tym Apple Intelligence, szkoda, że my w naszym kraju nie do końca, ale no urządzenia jak najbardziej, nowy HomePod mini ma się pojawić,
czyli chyba wersja trzecia, bo o ile kojarzę.
Ma być powiedzmy na tej samej architekturze właśnie z serii S,
czyli te co najnowsze Apple Watche.
No i Apple Studio Display 2, monitor topowy,
Apple’owy, to nam chyba mało,
to nam chyba mało, tak powiem, będzie ze szczęścia potrzebne.
O Apple Watchu tutaj niewiele mówią.
Ma być układ S11.
Właśnie Apple Watcha 11.
Jak gdzieś czytałem taką pogłoskę, że może gdzieś będzie Touch ID.
No to byłoby ciekawe.
No właśnie, też coś się napisałem dzisiaj.
Ale chyba, wydaje mi się, że nie wiem czy nie za rok przypadkiem.
Będziemy musieli czekać bardzo długo, żeby się dowiedzieć.
Tak, znaczy właśnie, wrzesień, znaczy wrzesień już tuż, tuż tak naprawdę, nie?
Więc to Apple Watch’a pokażą we wrześniu, pytanie kiedy maki i tak dalej.
No ale już coś wiemy i to nie jest tak, że to są plotki, że jacyś likerzy, którzy tam czatują
albo przewidują, wróżą i tak dalej, tylko to autentycznie ujrzało światło dzienne w kodzie,
więc no to mieć będziemy. No, AirPodsach, nic nie zostało powiedziane, więc czy będą wreszcie
te nieszczęsne pro trójki. Może niech nie będą, bo nam się audycja zdezaktualizuje, ale tak naprawdę to tyle o Apple’u.
No to okej, to przechodzimy teraz dalej. Do techdrowinek sobie przejdźmy. Jak zobaczyłem pierwszy news,
który w tej sekcji Ty, Maćku, przygotowałeś, bo tu do spółki z Pawłem macie to i owo, to tak sobie pomyślałem,
Wiem, że chyba ten news to dedykujesz naszym dwóm słuchaczom, którzy chyba dwie audycje albo trzy temu, Tyflo Przeglądy, kiedy zostały one opublikowane na stronie Tyflo Podcastu, to się wdali w bardzo ciekawą dyskusję o samochodach, bo teraz będzie pierwszy news właśnie o samochodzie i o Apple Maps.
No tak, albo z dedykacją dla słuchaczy, albo dla rodzin powiedzmy tychże, tudzież znajomych, no bo my co prawda jeszcze sobie tak autkiem autonomicznie nie pojeździmy i sobie z tej opcji nie skorzystamy,
ale jak się napomknie znajomym czy członkom rodziny korzystających z map Apple, że taka funkcja sobie istnieje, no to będą mogli skorzystać, prawda?
Tyflopodcast, zwłaszcza ta część
technologiczna, to w ogóle prawda dla
wszystkich, więc
właśnie, autko, to znaczy załadowanie
auta można będzie sobie zapłacić
właśnie za pomocą, za pomocą
Apple Pay, za pomocą map
Apple’a.
Mało tego, nie to, że będą mogli, już
mogą w wybranych krajach Europy.
Dzięki integracji
z usługą Syrantik, chyba jak to tam się
…stało się nie tylko możliwe wyszukiwanie stacji ładujących elektryki, ale właśnie inicjowanie, opłacanie sesji ładowania właśnie z poziomu aplikacji MAP.
No i generalnie chodzi o to, żeby można było wyeliminować konieczność instalowania aplikacji wielu różnych operatorów,
pewnie, co stacja, co marka, powiedzmy też, to kolejny operator,
gdzie płaci się za ładowanie auta, a tutaj w jednym, powiedzmy,
zcentralizowanym na urządzeniu też Apple’a,
w ofce mapy za pomocą Apple Pay’a będzie sobie można to wykonywać.
No i z prowizją dla Apple też.
Nazywa się tak właśnie, Charging Wallet.
Dostępna jest w Niemczech. No, niedaleko. Ciekawe, można testować.
W Niemczech, Austrii, Holandii i Szwecji.
O, to może Paweł, jak tam kogoś będziesz miał, to się wytestuje.
Niech Ranikom zapytać.
No, właśnie. Ciekawe w sumie, czy już mogą korzystać z tego.
Integracja właśnie tego cudeńka pozwala na rozpoczęcie nawet ładowania,
czyli właśnie inicjowania ładowania
z map Apple właśnie
danego auta.
Prezentuje aplikacja kierowcy
dostępne stawki, starając się
wskazać najkorzystniejszą
opcję.
No i właśnie jak
mówimy o Apple Pay, że
można sobie zapłacić.
No i to chyba tyle, jeśli o to chodzi, bo tak naprawdę to są na razie cztery kraje.
Do upowszechnienia się tej funkcji przyjdzie nam pewno jeszcze jakiś tam czas poczekać,
ale kierunek jest, więc myślę, że zaczyna się od tych czterech krajów.
Niemiec, Holandię, Szwecji i Austrii, a być może i do nas trafi też ta funkcjonalność, kto wie.
No to chyba ja zostałem z moimi drobinkami.
Wiesz co? Jeszcze mam o Allegro.
A to proszę, bo nie widziałem w notatkach, musiałeś wrzucić później.
Wrzuciłem później, tak. Mianowicie aplikacja Allegro
wydana na Wear OS.
Na Wear OS została wydana.
Wersja dokładna aplikacji
to już w każdym razie aplikacja
no polega na, pozwala na to samo co pozwala
na Apple Watchu, bo na Apple Watcha mieliśmy już
jakiś czas temu dostęp. Natomiast
teraz jest na Wear OS-ie, czyli właśnie na wygodny
odbiór przesyłek to na pewno.
Sprawdzanie stanu tychże
przesyłek.
Odebrać przesyłkę,
Allegro OneBox Orlen paczka
i z automatów DHL. Oprócz tego też
jest możliwy za pomocą tej aplikacji,
za pomocą kodu w odbioru, czyli też,
bo możemy sobie tą skrytkę otworzyć, ale też pokazać kod QR
no i dzięki temu też zostanie rozpoznane, że to jest,
Aby napisać ta przesyłka.
W wypadku gdy zegarek dostępu do internetu nie ma, no to wiadomo, telefon musi być.
Chyba, że eSIM, no to wtedy będzie można sobie odebrać taką przesyłkę normalnie.
WearOS 2.2
Użytkownik zaloguje się właśnie
na specjalnej stronie
www.allegro.pl.pl
No i ten…
No i tak naprawdę
to by było na tyle z tą
jeśli chodzi o tą nowość.
I teraz Paweł już tak definitywnie.
Moje nowości są trzy.
Po pierwsze, jeżeli polubiliście już
to, jak dostępne są telewizory
Samsunga,
to ucieszy Was pewnie wiadomość, że
Samsung prowadzi też program
licencjonowania Tizen OS, czyli
systemu operacyjnego, na którym
te telewizory bazują, także
dla innym producentom.
I tu właśnie taki artykuł mi się trafił ostatnio, że właśnie telewizory z Tizenem
pojawią się w ofertach też innych producentów. I tu się bardzo zdziwiłem,
bo żadnego z tych producentów praktycznie nie znam. Jak chodzi o producentów w Europie
i Australii, to pojawiły się Eko oraz Kubel. Nie słyszałem o takich firmach.
W Meksyku i Stanach Zjednoczonych RCA, to już mi coś mówi. Nie wiem, czy to nie byli ci,
Ci, co kiedyś stworzyli jakiś telewizor dla niewidomych, taki bez ekranu,
taki bardziej jak radio, to chyba byli oni.
Natomiast też Axio, jakiś taki niemiecki producent telewizorów,
Ma też tego Tizen’a dostać, także AXDIA nawet. A X T I A.
Także to są tacy producenci telewizorów, o których w życiu nie słyszałem.
Może to oznaczać, bo nie wiem, nie patrzyłem szczerze mówiąc na ich ofertę,
że te urządzenia będą troszkę tańsze.
No a to co dla nas to oznacza?
No to, że będziemy mieli niższy próg wejścia
…do tego, żeby kupić sobie dostępny telewizor.
Także myślę, że takie wieści zawsze cieszą.
Zwłaszcza tych, którzy regularnie różne treści telewizyjne,
czy też po prostu wideo, na przykład z audioreskrypcją,
sobie konsumują. Wszak telewizory smart na Tizenie
no nie tylko zwykłą telewizję potrafią.
Druga wiadomość ucieszy pewnie w dłuższej perspektywie
Nas wszystkich, którzy korzystamy z jakichkolwiek nawigacji
opartych na OpenStreetMap. Bo to jeden z użytkowników,
członków społeczności OpenStreetMap. W ramach projektu
Google Summer of Code, czyli taki projekt dla
stażystów w Google, którzy mogą sobie w ramach stażu
powiedzmy wakacyjnego, stworzyć jakiś swój projekcik
IT, coś sobie zaprogramować. Na przykład takim projektem,
z którego my skorzystaliśmy swego czasu, to już chyba z 10 lat temu,
był softbrail keyboard Daniela Daltona, który był tak naprawdę
jego właśnie projektem powstałym na stażu w Google.
No a tutaj jeden z użytkowników tworzy i jest już na dobrej drodze,
żeby stworzyć dla OpenStreetMap system
do informowania się nawzajem przez użytkowników
o różnego rodzaju remontach, objazdach, korkach, wypadkach,
…i innych okropieństwach, które mogą wpłynąć na to, że no trasa, którą normalnie by OSM wygenerował, no się nie uda, bo właśnie jest tam jakaś jej część chwilowo nieczynna, wyłączona z ruchu.
No myślę, że fajna sprawa, jeżeli to się przyjmie, oczywiście no musiałaby społeczność w danym miejscu dbać o to, żeby te informacje na bieżąco wprowadzać.
Natomiast no docelowo miałoby to tymi danymi karmić różnego rodzaju nawigacje,
więc tu przypuszczam, że na przykład taki Seeing Assistant Go mógłby coś takiego
z czasem zintegrować i byłoby to dla nas wszystkich pożyteczne.
No i trzecia, ostatnia drobna wiadomość, to też tak już rzutem na taśmę
przeglądałem właśnie, co tam nowego słychać w Mirandzie, bo czasami jeszcze
Zawsze zaglądam na GitHuba Mirandy i patrzę, co tam nad czym ciekawym deweloperzy pracują.
No i aktualnie od kilku dni pojawiło się wsparcie protokołu DeltaChat,
czyli tego właśnie komunikatora bazującego na IMAPie,
bazującego tak jakby na skrzynkach mailowych.
Już kiedyś tu o nim rozmawialiśmy.
Dostępność aplikacji mobilnych stale się poprawia.
Natomiast na desktopie można by spokojnie skorzystać właśnie z Mirandy, na przykład, żeby sobie ze znajomymi popisać.
No to chyba ode mnie też tyle.
Paweł, witam. Wie może ktoś, czy rejestrator Olympus LSP5 jest tu dźwiękowiony i gada?
Pozdro, dzięki, że jesteście i pomagacie.
LSP-5?
Chyba nie, bo to był nawet pierwszy Olympus, który właściwie nawet Olympusem nie jest, bo to był
to był chyba pierwszy rejestrator, który został wyprodukowany przez chyba, co się nazywa,
OM System. To jest firma, która przejęła generalnie biznes rejestratorów od Olympusa.
Bo samo Olympus teraz to się chyba zajmuje tylko produkcją mikroskopów, tak, poszli w sprzęt
I z tego co pamiętam ludzie pisali do tego nowego producenta i oni stwierdzili, że nie, nie jest udźwiękowione, nie mają planów, żeby te przyszłe urządzenia udźwiękować niestety.
Więc dobrze, że mamy te Zoomy udźwiękowione.
No tak. No i cóż, z racji tego, że Maciek nam wyleciał i nie wygląda na to, żeby miał się pojawić,
No to chyba po prostu będziemy musieli przedwcześnie zakończyć ten nasz dzisiejszy Tyflo Przegląd.
Jeżeli chodzi o Perplexity, o przeglądarkę Comet, no to cóż, to w takim razie pozostaje czekać do kolejnej audycji,
w której z pewnością Maciek się podzieli kompletem tych wrażeń i jak to działa i czy to w ogóle do czegoś się nadaje,
Takie wrażenia na ten temat były bardzo różne. Jedni sobie to bardzo chwalili, inni byli rozczarowani.
A sam jestem ciekaw, jak to tak finalnie rzeczywiście działa.
A jeżeli chodzi o dzisiejszy Tyflo Przegląd, no to cóż, to chyba w takim razie tyle.
Paweł Masarczyk, Piotr Machacz i Maciek Walczak, który nam zniknął dziś, newsy dostarczali. Dzięki.
I do usłyszenia za tydzień.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.