WWDC 2024 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
Mamy poniedziałek, mamy 10 dzień czerwca 2024 roku
i tak jak wspomniałem przed momentem
mamy godzinę 21, no już teraz to 10
i zwykle o tej porze to my już jesteśmy w ferworze tworzenia dla Was
jakiejś audycji na antenie Tyflo Radia
no ale akurat w ten poniedziałek to tak po prostu się wydarzyło,
że nie dało się inaczej.
Jesteśmy, jesteśmy z pewnym opóźnieniem,
ale to wszystko dlatego, no że po prostu
WWDC dopiero w tym momencie się zakończyło.
A właściwie konferencja, keynote, która to WWDC rozpoczynała.
I o tej konferencji dziś sobie opowiemy na antenie Tyflo Radia.
Witam bardzo serdecznie moich dzisiejszych gości współprowadzących
Paweł Masarczyk, Piotr Machacz, którzy tę technologiczną konferencję oglądali.
No słuchajcie, to pierwsze moje takie pytanie.
Jakie w ogóle Wasze wrażenia jeżeli chodzi o ten rok?
Było amazing czy nie bardzo?
Ja myślę, że trochę tak.
Było to AI, Apple Intelligence, już teraz nie Artificial Intelligence,
tylko Apple Intelligence.
Takie coś zrobili.
To jest i zostało zapowiedziane i my oczywiście się rozwiniemy na ten temat
co, dlaczego, jak i gdzie.
No ale jest to w jakimś stopniu kolejny krok.
Na pewno jest to większy krok niż to co się działo na przykład w ostatnich latach.
OK, Vision Pro był jakimś tam przełomem, który Apple sobie zaznaczył jako krok milowy.
No teraz jest to sztuczna inteligencja, czy też modele językowe generacyjne.
Trochę fajnych funkcji doszło, pomijając już te kwestie AI-owe.
Takich przydatnych funkcji, ja to mówiłem i zawsze będę powtarzał,
że konferencje Apple dla mnie charakteryzują się tym,
że podczas gdy cały świat technologii rzuca się na jakieś wielkie hasła
na jakieś usługi, które mają zrewolucjonizować świat,
po czym po jakimś czasie te firmy się z tego wycofują, patrz Google,
to Apple się skupia na takich drobnych rzeczach, na takich, kolokwialnie mówiąc pierdółkach,
które ułatwiają życie.
I tutaj dodadzą jakąś funkcję do wiadomości, tutaj coś dodadzą do map,
tutaj coś dodadzą do ustawień i to tak po kroczku, po kroczku okazuje się,
że tej funkcji mi brakowało, ta funkcja by się przydała.
I nie zabrakło tego też na tej konferencji.
Trochę zawiodła audiodeskrypcja, odnoszę wrażenie, bo pamiętajcie,
że ta konferencja keynote zawsze jest z anglojęzyczną audiodeskrypcją
i nie było inaczej tym razem, natomiast w tym roku jakoś bardzo,
mam wrażenie, w kluczowych momentach jej zabrakło.
Ktoś coś pokazuje na ekranie i opowiada, o teraz robię to, ale co to jest to?
Ja rozumiem, że dialogu jest dość dużo i ciężko może w niego wcisnąć
takie sekwencje audiodeskrypcyjne.
Mimo wszystko jednak koniec końców efekt był taki, że zostaliśmy pozostawieni
bez tej kluczowej informacji, co ta osoba zrobiła.
Zdaje się, że tam w jednym miejscu którejś tam przeciągnęła coś dalej na ekranie
czy jakiś gest wykonała i ja nie wiedziałem, co to za gest osobiście.
Tak, ja się zastanawiam, czy tutaj nie zmieniła się firma,
którą ta audiodeskrypcję dostarcza, bo zmienił się lektor na pewno,
co może coś znaczyć, ale nie musi, ale faktycznie miałem wrażenie,
że tej deskrypcji po prostu w tym roku było mniej.
Nie wiem, czy też macie takie wrażenie, już poza anteną z Michałem
o tym rozmawiałem, czy Craig Federici nie brzmiał trochę jak wygenerowany głos AIM?
Szczerze powiedziawszy nie zwróciłem na to uwagi.
Ja też, nie odniosłem tego wrażenia.
Natomiast wiecie, ja wcale bym się nie zdziwił.
Oni ponoć te konferencje to szlifują do ostatniego momentu.
To wszystko to nie jest tak, że to płynie i że nie robią tam
jakichś prób jednej, drugiej, trzeciej, dziesiątej,
więc podejrzewam, że być może właśnie było tak,
że oni zdecydowali się na to, że sobie to po prostu wszystko nagrają,
nie będą się tego uczyć, że będzie można to zrobić jakoś prościej.
Nie zdziwiłbym się.
Zwłaszcza teraz, kiedy to jest wszystko nagrywane,
więc to mogą sobie na spokojnie powtórzyć tyle razy, ile trzeba,
poprawić jakoś, tak, bo kiedyś to było na żywo,
no to faktycznie było tych prób pewnie potrzebne więcej,
no a teraz to jest wszystko nagrywane, to mogą spokojnie sobie
nagrać coś kilka razy, doszlifować to tak, żeby to było po prostu
perfekcyjnie jak to słynie Apple.
Generalnie myślę, że mogę się zgodzić z tym, co powiedział Paweł.
Jeśli inne systemy dostają jakieś funkcje, no to dostają je może szybciej,
ale nie zawsze z takim efektem, jakiego byśmy może tego oczekiwali,
z takim naciskiem, nie wiem, na prywatność.
Patrz Windows Recall, który jest w tym momencie krytykowany
chyba w całym internecie prawie.
No a tutaj generalnie, jeśli jakieś nowości się pojawiają,
no to one są praktyczne i przemyślane.
I myślę, że tak samo jest podobnie tym razem.
Pytanie, ile z tych nowości dotrze do nas i to niestety jest inna rzecz,
która zdecydowanie nie napawa optymizmem, ale słuchajcie,
żeby opowiedzieć o wszystkim po kolei, myślę, że chyba najłatwiej
będzie nam po prostu mówić o tym, o właśnie w tym momencie
Pawła na moment nam wyrzucił, ale już wrócił.
Myślę, że najłatwiej będzie nam mówić o tym po prostu w kolejności takiej,
w jakiej to wszystko na Keynote zostało zaprezentowane.
Zanim się rozkręcimy i zanim zaczniemy Wam o tym wszystkim opowiadać
i streszczać to wszystko, co sobie ponotowaliśmy i zapamiętaliśmy,
to przypominam, jesteśmy na żywo.
663-883-600 to jest nasz numer telefonu.
Tu możecie dzwonić, możecie nagrywać się na Whatsappie,
możecie pisać do nas w komentarzach na Facebooku, na YouTubie.
Dostałem przed momentem informację od naszego słuchacza Wojtka,
że coś na YouTubie nas tnie.
Miejmy nadzieję, że w innych miejscach słychać nas dobrze
i że nie ma jakichś problemów.
No w tym momencie to nie jesteśmy już w stanie nic z tym zrobić.
Jeżeli z jakiegoś źródła macie problem z odsłuchem naszej transmisji,
to proponuję przełączyć się na inne.
A oczywiście to wszystko, o czym my tu sobie będziemy rozmawiać potem,
będzie do odtworzenia również ze strony Tyflo Podcastu.
No postaram się, żeby było to do odtworzenia możliwie jak najszybciej,
bo ja rozumiem doskonale, że temat palący i gorący.
Zaczynamy. Na dobry początek to, co się pojawiło, to Apple TV+.
I tu Apple TV plus świętowało swoje pięciolecie, prawda?
Tak, ja w ogóle zapomniałem o tym, że oni pięć lat temu wyszli.
To był też rok, kiedy ja kupiłem po długiej androidowej przerwie iPoda Touch,
więc akurat się dobrze ustawili z tym.
Załapałeś się na promocje, bo wtedy chyba jakieś były promocje, no nie?
Nie pamiętam.
Kupiło się nowe urządzenie Apple, to jakieś tam parę miesięcy było na to Apple TV.
Ale to był już stary iPod, znaczy z perspektywy czasu to był ten iPod siódmej generacji,
on już nie był wtedy nowy, chyba.
No nie wiem, mniej więcej jest trochę ciekawych seriali na Apple TV+.
Kilka seriali, które muszę w końcu oglądać. Dużo science fiction.
Jeśli ktoś science fiction lubi, no to tam jest co oglądać.
Ciekawostka, serial Fundacja na przykład jest kręcony w dużej części w Krakowie.
Przynajmniej ten trzeci sezon, który ma dopiero powstać.
Więc gdzieś jakiś polski akcent nawet się pojawi.
No i co było zapowiedziane, dużo nowych sezonów, no nie?
Teraz nie przypomnę sobie jakie tam seriale były.
Severance na przykład.
Tak, Silo jeszcze, taki też popularny serial.
Ja akurat w związku z tym, że chwyciłem po prostu pierwszy lepszy stream z brzegu,
który był mi dostępny, to wam powiem, że oglądałem to bez audiodeskrypcji,
więc ten materiał akurat o Apple TV+,
totalnie dla mnie nie był w żaden sposób osiągalny,
bo tam, no ten materiał on najzwyczajniej w świecie to były takie ścinki,
takie migawki z różnych seriali, więc…
No my też chyba nie słyszeliśmy o wszystkich, bo tam w pewnym momencie
deskrypcja po prostu powiedziała, że jakieś tytuły na Apple TV szybko się zmieniają,
więc no, ale parę tytułów było wymienione, tak że to co pamiętamy to wspomnieliśmy.
A propos takich ciekawostek, to jeśli ktoś słuchał tej konferencji w AirPodsach
albo ewentualnie z jakimś systemem Dolby Atmos,
no to nie wiem z jakiego powodu, no ale mieliśmy dźwięk przestrzenny po prostu,
więc te zwiastuny, no to były po prostu w dźwięku takim 3D.
Była moc po prostu, była moc.
Następny element, o którym będziemy już w stanie powiedzieć nieco więcej,
no to Vision OS, czyli urządzenie Vision Pro,
urządzenie, które to będzie dostępne coraz szerzej,
ale zanim o tym powiedzieli, to pochwalili się, że już ponoć
około 2000 natywnych aplikacji na Vision Pro jest dostępnych.
No to całkiem sporo.
Całkiem sporo, aczkolwiek nie wiem czy tak jest do końca,
ale mam wrażenie, przynajmniej z tego co gdzieś czytałem,
że z aplikacjami Vision Pro, co jest trochę tak jak z aplikacjami
z iOS-a na Macach z procesorami ARM,
że takie najbardziej popularne pokroju, nie wiem, Netflix, jakiś Spotify
są umyślnie wyłączone przez deweloperów i nie da się ich otworzyć,
czyli YouTube na przykład.
Ludzie są bardzo niepocieszeni z tego powodu.
To niefajnie, to rzeczywiście, ale może po prostu twórcy pracują
nad jakimiś natywnymi wersjami.
No Netflix powiedział, że nie na ten moment.
No pewnie jacyś inni ich zastąpią i ci wszyscy, którzy wydali
ciężkie pieniądze na Vision Pro, to będą korzystać z jakichś innych
serwisów dla Netflixa, a nie wiem czy to na ten moment
będzie jakaś wielka strata.
Bo nie sądzę, żeby jakoś bardzo wiele osób kupowało Vision Pro,
ale w każdym razie Vision Pro doczekał się Vision OS-a w wersji drugiej.
No i co my tu mamy?
Mamy między innymi nowe API dla deweloperów,
którzy będą mogli różne rzeczy tam w aplikacjach sobie wdrażać
i to urządzenie jest przedstawiane jako taki headset bardzo wszechstronny,
bo z jednej strony gracze, ci wszyscy, którzy lubią sobie
zanurzyć się w świat wirtualnej rozrywki, ale też i dla profesjonalistów,
na przykład dla lekarzy, dla chirurgów.
Tak, będzie można ćwiczyć różne operacje.
Jeśli mówimy o nowych API, to pojawiło się nowe API, które pozwala
deweloperom zakotwiczyć różne wyświetlane informacje na płaskich
powierzchniach, czyli po prostu np. będzie można łatwo na stole
w jakimś miejscu np. jakąś grę planszową wyświetlić jakąś
szachownicę lub jeśli ktoś wykorzystuje to np. właśnie podczas operacji
albo w fabryce jest jakieś stanowisko, które jest gdzieś na stałe przytwierdzone,
no to gdzieś nad nim mogą się jakieś informacje diagnostyczne wyświetlać,
jak aplikacja może się z tym zintegrować, żeby to było fajnie dostępne
dla deweloperów. Cały czas niestety nie ma API, które by pozwalało,
przynajmniej nie były takie API ogłoszone, zdobywać informacje
o pomieszczeniu, wykorzystać te wszystkie czujniki i kamery,
które są na tym Vision Pro. Pewnie to jest zrobione z kwestii prywatności,
ale niestety to dla nas np. bardzo ogranicza możliwości tego urządzenia,
bo ja cały czas widzę w tym gdzieś duży potencjał do mapowania przestrzeni
jakichś aplikacji nawigacyjnych, no na razie cały czas takich rzeczy
po prostu nie da się jeszcze zrobić.
Może kiedyś, bo w pewnych rzeczach jeżeli chodzi o prywatność,
to u Apple’a piekło zamarzło, ale to potem o tym sobie powiemy.
Co mamy tutaj dalej? Mamy m.in. nowe gesty, które zostaną
wprowadzone w Vision OS 2 i to są gesty wspierające multitasking, tak?
Będzie można różne rzeczy sobie tam realizować.
Tak, tutaj audiodeskrypcja się okazała bardzo pomocna, ponieważ te gesty
zostały opisane, nie zostały powiedziane głosowo przez tą panią,
która prezentowała Vision OS, a zostały one przedstawione
w formie audiodeskrypcji. No i tak przykładowo, stykając ze sobą palec
wskazujący i kciuk przechodzimy na ekran główny, zaś odwracając
dłoń do góry. Co tam robimy Piotrze? Powiadomienia?
Nie, centrum sterowania.
Nie pamiętam co jest do czego, natomiast napisałem sobie jakie gesty
były zaprezentowane i tak właśnie można przejść szybko do ekranu
początkowego, do centrum sterowania, wyświetlić zegar i stan baterii.
To było to podniesienie dłoni chyba.
A, okej. Można też szybko uruchomić wirtualny wyświetlacz dla Maca,
który swoją drogą też został rozbudowany, bo wcześniej to był
jeden wyświetlacz, który mógł mieć rozdzielczość bodajże Full HD,
a teraz to mogą być wyświetlacze dwa i to w rozdzielczości nawet do 4K.
Kolejna rzecz to taka, która nam się chyba jakoś specjalnie nie przyda,
ale też jakieś nowości w zdjęciach się pojawiły, prawda?
Coś związane z przestrzenną fotografią, filmem?
Tak, to są dwie rzeczy. Po pierwsze będzie jakieś uczenie maszynowe,
które nam pozwoli, bo w ogóle po pierwsze te nowe iPhone’y chyba,
to przynajmniej iPhone 15 Pro i Pro Max jest w stanie nagrywać już
przestrzenne wideo, więc jeśli sobie takie zdjęcie na Vision Pro otworzymy,
no to ono będzie widoczne w 360 stopniach, możemy się po nim rozglądać.
Natomiast, co zostało dodane, jeśli będziemy oglądać sobie takie,
powiedzmy, nazwijmy to stare, tradycyjne zdjęcia w 2D,
to będzie jakieś uczenie maszynowe, które nam pozwoli taki
wirtualny efekt 3D stworzyć.
To jest jedno, a druga rzecz jest taka, że teraz twórcy będą w stanie
łatwiej tworzyć różne treści przestrzenne.
I tutaj będzie w aplikacji Apple TV kilka takich rzeczy dodane,
jakieś filmy z ekstremalnych sportów, jakieś pasofality z zwierzętami związane,
no i będą narzędzia, które pozwolą twórcom takie rzeczy komponować łatwiej.
Tutaj jest partnerstwo z firmą Blackmagic, która jest znana z tego,
że robi bardzo dobre kamery, no i aplikację DaVinci Pro,
bodajże to się nazywa, do edycji filmów i będzie można właśnie w tej aplikacji
takie treści łatwo dla Vision Pro przygotować.
Jest nawet taka aplikacja Blackmagic Camera na iOS-a,
która chyba właśnie do tego m.in. służy, że jest w stanie wyciągnąć
i wycisnąć z aparatu naszego urządzenia no maksimum.
Trochę się nią nawet bawiłem i jakoś tam była dostępna.
Nie mam jakichś aspiracji kręcenia, nie wiadomo, jakichś ujęć i tak dalej,
więc nie testowałem tego aż tak bardzo, natomiast no rzeczywiście być może
ci wszyscy, którzy mają Vision Pro, to się rzeczywiście tego typu narzędziami
jeszcze bardziej zainteresują.
Ja tu sobie wypisałem też taki punkt w moich notatkach,
natomiast wiele więcej nie jestem w stanie na jego temat powiedzieć.
Może ktoś z Was shareplay w zdjęciach na Vision OS?
No na pewno można ze znajomymi po prostu te zdjęcia jakoś oglądać
i chyba nawet właśnie też te zdjęcia przestrzenne, więc jeśli mamy
kilku znajomych, którzy mają te headsety Vision Pro, to będziemy mogli im
wyświetlić te zdjęcia chyba w wirtualny sposób, że oni też będą mogli
stać z nami wewnątrz takiego zdjęcia. Chyba o to chodziło.
Mamy informację od Patryka, że już się pojawiły bety deweloperskie,
natomiast on ich na ten moment nie pobiera. I słusznie Patryku, że nie pobierasz
tych bet i absolutnie nie namawiamy nikogo z Was, żebyście te bety pobierali.
Na pewno nie na własne urządzenie produkcyjne. Jeżeli macie jakiś sprzęt,
na którym czy iOS czy macOS w tych deweloperskich betach pójdzie,
a nie jest on Waszym podstawowym urządzeniem, no to jak najbardziej.
Jeżeli chcecie się pobawić, to okej, bo ciekawość na pewno w niektórych
z Was drzemie, natomiast z uporem godnym lepszej sprawy, ja przypominam,
że to nie jest jeszcze ten moment i na pewno jeszcze długo nie będzie
przez najbliższych kilka miesięcy, żeby w ogóle to instalować na urządzeniu,
z którego korzystacie na co dzień i na przykład od którego zależą
Wasze różne działania, czy nawigacja, czy codzienne jakieś takie czynności,
na przykład jeszcze dodatków pracy, więc absolutnie powstrzymajcie się
od tego, a unikniecie prawdopodobnie wielu kłopotów.
To od Patryka, a ciekawe co od Maćka, bo Maciek jest z nami
po drugiej stronie Łącza. Witaj.
Cześć, witajcie. Tak, no gdzieś w tak wielkie święto bym się do Was nie wdzwonił,
chociaż szczerze mówiąc trochę się bałem, że w ogóle początku nie zobaczę,
bo prosto z uczelni i tak dalej, ale się udało na szczęście.
No to właśnie tak poniekąd trochę mnie też Patryk ubiegł,
bo też chciałem powiedzieć o tych wersjach deweloperskich.
Natomiast co ciekawe, no właśnie, wersje deweloperskie są,
no jak wiemy publiczne to będą później, natomiast jeszcze jest taki program
Appleseed beta coś tam, nie pamiętam, program, który w sumie nie wiem
na ile on jest, bo tak, generalnie dostaje się aktualizacja wtedy,
kiedy deweloperskie wersje wychodzą, ale niby rzekomo jest skupiony
na accessibility, więc tak naprawdę nie do końca wiem o co chodzi
i aż jestem ciekaw kiedy się te nowe wersje pojawią.
Być może rzeczywiście jeszcze tam jest na tyle jakichś tam baboli dostępnościowych,
że jeszcze w sumie tego nie ma, natomiast jeżeli to się pojawi w tym programie,
tym Appleseed właśnie odnośnie accessibility, to sobie myślę,
że jeszcze dopiero zainstaluję i gdzieś tam będę mógł to jakoś przetestować bardziej.
No na pełno AI-a sobie nie przetestujemy, no właśnie fajna gra słów i skrótowców, prawda,
bo to od sztucznej inteligencji, a tu mamy Apple Inteligence.
A kłaczko, natomiast o tym to będziemy sobie później jeszcze rozmawiać na pewno,
więc jak na razie ja bym poprosił Ciebie, żebyśmy się trzymali jednak jakoś
tych naszych tematów, czy o Vision OS coś chciałbyś powiedzieć?
Stricte o Vision to nie, ale odnośnie takich wstępnych wrażeń tylko jeszcze powiem,
jak już o tym mówiliście, że w sumie jakoś tak dotychczas od, nie wiem,
jakichś tam powiedzmy dwóch lat jak w WDC się odbywały, no z wyjątkiem tego,
że tam Apple zaprezentowało swoją architekturę procesorów i tak dalej,
no inaczej swoją, nie swoją, a silikon w sumie, więc to była taka powiedzmy konferencja,
która gdzieś tam rzeczywiście, ale tak sobie to oglądałem od tak
i w sumie dzisiaj gdyby nie te tematy z AI-em tak naprawdę związane,
które się tam później pojawią, będziecie o tym mówić szerzej,
to szczerze mówiąc chyba dla mnie by nie było nic takiego,
z czego mógłbym się jakoś bardzo cieszyć tak naprawdę.
No dobra, są pewne funkcje, o których tak będziecie mówić,
jeśli chodzi o Maca i tak naprawdę tą integrację jeszcze większą z ekosystemem
i to, co nam to tak naprawdę daje, więcej nic nie powiem,
natomiast to myślę, żeby mnie oprócz tych funkcji związanych z AI-em cieszyło na pewno,
bo to fajna sprawa jest i a propos tych aplikacji i powiedzmy poniekąd rozwiązania problemu
z tym, że aplikacje, które są na iPhone’a nie ma na Maca, no ale okej.
I co jeszcze, no i tak naprawdę opcje dotyczące prywatności w iOS-ie,
gdzie będzie też blokowanie aplikacji i tak dalej przez FaceID i tak dalej,
to powiedzmy ewentualnie byłoby takiego, gdyby nie to AI, więc tak niby dużo, niby nie.
Powiem ci szczerze, że trochę podzielam twoją opinię w tej kwestii,
ale to myślę, że jeszcze nam wyjdzie wszystko w międzyczasie tak zwanym,
jak będziemy rozmawiać, jeżeli będziesz miał ochotę, to dzwoń jeszcze do nas,
albo nagrywaj się na WhatsAppie.
Tak, tak, tak, no teraz wam nie będę zaburzał, a w miarę upływania audycji
i poruszonych tematów, no to jeszcze się może dzisiaj usłyszymy, jeszcze zobaczymy,
no a tymczasem na nas słuchu pozostaje.
Jasne, dzięki za telefon i miłego wieczoru.
Cześć, cześć, miłego wieczoru.
Cześć, to był Maciek, wy też jeżeli macie ochotę się z nami skontaktować,
to dzwońcie, piszcie, tylko no taka bardzo wielka prośba,
żebyśmy się jednak trzymali tych konkretnych systemów, bo kilka ich jest,
a żeby później nie mielić po kilka razy tych samych wątków.
Będziemy wam bardzo za to wdzięczni.
Jeszcze jakiś czas temu to sensacje budzili ludzie,
którzy byli w słuchawkach bezprzewodowych.
O tym się tak mówiło, że teraz to już jest w zasadzie norma,
że ludzie, którzy mówią sami do siebie to w sumie już nie dziwi,
no bo teraz wiadomo, że te zestawy słuchawkowe bezprzewodowe
to jest coś, co po prostu nosimy bardzo często i z czego korzystamy.
Być może za jakiś czas gogle od Apple’a będą takimi urządzeniami,
bo zaczyna się pojawiać możliwość ich wykorzystywania w transporcie publicznym, prawda?
Tak, aczkolwiek ja nadal uważam, że to nie przy tych cenach.
Tak, raczej nie, natomiast o co chodzi?
Chodzi o to, że przez to jak Vision Pro działa i w czasie rzeczywistym
łączyć obraz z zewnętrznych kamer z tym, co ma nam urządzenie wyświetlać,
to urządzenie jest bardzo wrażliwe na ruch.
I teraz są w systemie takie zubezpieczenia, że jeśli jedziemy samochodem
i urządzenie wykryje, że jedziemy z powyżej jakąś wybraną prędkością,
to ten Vision po prostu nam się wyłączy,
bo przez to, że ten samochód nam cały czas wibruje, trzęsie się,
bo mogą być sytuacje, że gdzieś nam coś podskoczy nagle,
no i to mogłoby powodować problemy, jakąś chorobę lokomocyjną,
po prostu ten headset nie byłby w stanie działać prawidłowo.
Apple dodało tryb podróży i na start ten tryb podróży działał w samolotach.
Urządzenie było w stanie chyba wykryć, że po prostu wysokość była jakaś większa,
może włączamy po prostu gdzieś tryb samolotowy,
natomiast on nie działał w innych środkach transportu,
na przykład w pociągach.
Przepraszam, że po prostu w pociągach, gdzie GPS wykrywał,
że jedziemy szybko i też urządzenie się wyłączało.
No, w Vision OS 2.0 to się po prostu zmieni
i teraz tryb podróży będzie też właśnie wspierany w pociągach.
Zresztą oni go właśnie tak dosłownie nazwali, train mode,
czyli dedykowane jeździe w tym środku transportu publicznego,
natomiast podejrzewam, że jako pasażer w samochodzie
to też będziemy mogli z tego korzystać,
bo jako kierowcy to chyba lepiej nie.
Mimo wszystko, mimo tego, że mamy informacje z zewnętrznych kamer,
ale to może lepiej nie kusić losu.
Czy coś jeszcze a propos tego urządzenia od Apple’a
i tego nowego systemu?
Czy coś jeszcze zapamiętaliście?
O czymś jeszcze tu chcielibyście powiedzieć?
O filmach przestrzennych to już mówiliśmy,
bo o zdjęciach to się rozwodziliśmy.
Filmy też zewsząd nas będą otaczać i będzie można je kręcić.
To o tym wspomnieliśmy.
Mamy dostępność Vision Pro w nowych krajach.
To jest chyba jedyna nowość, którą dziś zapisałem.
Kraje jest osiem.
Generalnie to jest kawałek zachodu i kawałek wschodu można powiedzieć,
bo to m.in. są Chiny, Japonia, to jest Wielka Brytania,
to są Niemcy, to jest Francja.
Nie pamiętam, czy jeszcze jakieś Włochy, Hiszpania,
jakieś jeszcze kraje zachodnioeuropejskie.
Tam też nie było.
Generalnie cały czas Polski na telisie nie ma.
Z drugiej strony to jest sprzęt, który kosztuje 4 tysiąca dolarów.
Jak Paweł wspominał o cenie, ona nie zachęca jakoś specjalnie.
Ale jeżeli macie odłożone jakieś zaskórniaki na Vision Pro,
to nie będziecie już musieli jechać za wielką wodę.
Tak, może się przejechać do Niemiec,
do jakiegoś Apple Store w Berlinie czy gdzieś.
Dokładnie.
Podejrzewam, że co niektórzy miłośnicy Apple,
może niekoniecznie niewidomi, ale tacy, wiecie, z mainstreamu polskiego
to będą nagrywać filmiki na YouTube’a.
Jadę po Vision Pro.
Tak, wycieczka do Drezna.
Tak, tak, tak. Dokładnie.
No już znamy te klimaty.
No dobrze, czyli Vision Pro to myślę, że możemy ten temat zamknąć.
Ja szczerze powiem, że trochę liczę, że może jednak gdzieś te urządzenia
dzięki temu, że są bliżej dostępne,
to zaczną się jakoś bardziej pojawiać w Polsce.
No może wiadomo, nie każdy będzie sobie mógł na nie z przyczyn finansowych pozwolić,
ale trochę może jednak one bardziej zostaną wyeksplorowane
i przetestowane w naszych polskich warunkach.
Na co to w ogóle pozwala?
I będzie można na ten temat powiedzieć nieco więcej.
Bo przynajmniej niektórych YouTuberów albo innych takich dziennikarzy technologicznych
być może te zestawy zaczną się jakoś szerzej pojawiać.
A i może wypożyczyć będzie je łatwiej na przykład na jakieś testy.
To też ciekawa sprawa by była.
A teraz przechodzimy do systemu, który myślę, że wszystkim nam jest bliski,
czyli do iOS-a, iOS 18.
Co tu mamy?
iOS, iOS.
Mamy przede wszystkim dużo zmian wizualnych.
Nie wiem, czy zauważyliście, że dużo było w tym roku takich graficznych rzeczy,
coś związanych z widzeniem, ale no nie ze słabo widzeniem,
tylko właśnie bardzo takich tu zdjęcia, coś tu kolorki, coś.
No i od tego się zaczyna właśnie prezentacja iOS-a 18,
czyli lepsza organizacja wizualna ikon na ekranie głównym.
I tutaj zaczynamy od tego, że w ogóle będzie można w jakiś sposób
ułożyć te ikony względem naszej tapety,
czyli jeżeli na tapetę mamy ustawione jakieś zdjęcie,
to możemy sobie tak ułożyć te ikonki, żeby idealnie się układały w ramkę.
Czyli rozumiemy to chyba tak, nie wiem, zgadzicie się ze mną,
że to nie musi już być ten taki typowy układ siatki, który znamy,
tylko może być, nie wiem, kwadrat.
Tak, tutaj nawet był wywodony taki przykład, że Craig Federighi
sobie po prostu zrobił z ikonek na ekranie początkowym ramkę dla tapety swojej.
Tam miał jakieś zdjęcie, nie pamiętam co to było na tym zdjęciu,
ale sobie po prostu ikonki ułożył w taką ramkę wokół tego zdjęcia.
Mnie zastanawiają w tym kontekście dwie rzeczy.
Po pierwsze, czy zwiększy się ilość tych ikonek, które możemy sobie poukładać,
a może się zmniejszy, to też jest inna rzecz.
Czy będziemy mieli, tak jak do tej pory, taką, a nie inną liczbę tych ikon,
które możemy na ekranie umieścić.
A druga rzecz, jak ta swobodna możliwość manipulacji tymi ikonami
po pierwsze, będzie dostępna dla nas.
Czy my w ogóle będziemy mogli je sobie przesuwać w dowolny sposób?
Czy będą z tym jakieś problemy?
A druga rzecz, jak dla nas, oczywiście wiadomo, że za pomocą eksploracji
to wpłynie na dostępność.
Czy będzie łatwiej, czy będzie trudniej?
Bo wydawałoby się, że może być trochę trudniej, jeżeli ktoś na przykład
sobie tak pracuje, że dotyka tych konkretnych ikon, nie używa tych gestów
lewo, prawo i nie szuka w ten sposób aplikacji na ekranie,
tylko właśnie sobie po prostu lokalizuje tę ikonę palcem
i od razu aktywuje aplikację.
Chociaż z drugiej strony, jeżeli będzie sobie w stanie dokładnie ją wypozycjonować
według tego, jak sobie życzy, to może dla kogoś będzie to łatwiejsze.
Może tak być.
Pytanie, jak tu VoiceOver tym zarządzi, bo my znamy taką nawigację linearną
gestami lewo, prawo, która jest ułożona według konkretnych linii,
czyli są cztery aplikacje, potem jest takie blum, przejście do następnej linii
i to my, czy raczej popom, i my wiemy o tym, że to jest to przejście do następnej linii.
Przypuszczam, że to będzie działać.
Jeśli będą te linie cały czas i tak ułożone, że coś będzie pod spodem,
to ten dźwięk pewnie i tak usłyszymy.
Więc jeśli ktoś nawiguje gestami, to myślę, że to powinno działać.
Może być taka sytuacja, że będziemy mieli jakąś pustą przestrzeń.
Właśnie pytanie, jak system będzie nam automatycznie gdzieś te aplikacje układać
i jak my to będziemy mogli robić.
Czasem się zdarza też tak, że Apple w momencie, kiedy coś zmienia dla osób
widzących, to dokłada jakiś taki smaczek też dla użytkowników VoiceOver.
Nie wiem, czy też to widzicie, ale mam wrażenie, że już były takie sytuacje,
że to, co się dla osób widzących zmieniło, to my w jakiejś innej wersji dostaliśmy.
No i nie chciałbym spekulować, bo to jest wróżenie z ustów.
Oczywiście czego ja osobiście nie lubię, ale myślę sobie o różnych rzeczach
i sobie marzę tak na jawie.
Może jakieś umiejscowienie ikon w przestrzeni.
Może będziemy mieli w końcu jakieś słuchanie w stereo na przykład.
Dźwięk też ten. Na Vision Pro to jest.
Nie wiem, czy oglądałeś demonstrację niewidomych korzystających z VoiceOvera na Vision Pro.
Właśnie tu jestem troszkę na bakier.
No to ja oglądałem i powiedzieć, że to po prostu na Vision Pro.
To chyba się da wyłączyć, ale domyślnie to jest tak, że po prostu jak my sobie
chodzimy po tym ekranie, to zarówno te wszystkie dźwięki, bo one generalnie są
takie same jak na iPhone’ie czy na Mac’u i głos nawet VoiceOvera wydobywa się
z tego miejsca, gdzie jest dany przycisk, dana kontrolka.
Aha, no to…
Więc czemu nie?
Boże, jesteśmy o krok.
Ale to nie wszystko, co możemy zrobić, bo teraz też możemy oczywiście
spersonalizować sobie kolory, tych ikon odcienie i też one inaczej będą
wyglądały w trybie ciemnym.
Natomiast to, co moją uwagę gdzieś zwróciło, to jest funkcja idealnie pięknie
skopiowana z Androida 7, czyli wracamy do roku 2016, kiedy to wchodzi opcja
kafelków w centrum sterowania, który w Androidzie nazywa się
szybkie ustawienia i okazuje się teraz, że możemy dodać sobie więcej
różnych kontrolek niż te, które do tej pory tam były, te bluetoothy,
wifi, latarki i tak dalej.
Możemy też dodać sobie pewne rzeczy z różnych aplikacji i aplikacje będą
mogły teraz wspierać swoje własne przełączki w panelu sterowania,
w centrum, przepraszam, sterowania.
Co więcej, będziemy mogli zamienić tą domyślną latarkę na ekranie
blokady na coś innego i będziemy mogli np. sobie odpalić jakieś pisanie notatek
albo może nawet nagrywanie notatek, czemu nie, tworzenie nagrań w dyktafonie
albo w jakiejś innej aplikacji.
Ja jestem ciekaw, jak tutaj zostaną wykorzystane te przełączniki w panelu
w centrum sterowania, co ja tak z tym Windowsem dzisiaj.
I taka jedna, która z Androida mi się teraz przypomniała, że była bardzo fajna,
to Shazam, który miał opcję wyłącz-włącz do rozpoznawania muzyki
i dało się włączyć na stałe rozpoznawanie muzyki, dopóki się go nie wyłączyło
i on rozpoznawał utwór za utworem.
Nie wiem, czy Apple się do tego posunie, przypomnijmy,
Shazam jest teraz aplikacją Apple, ale to jest moje pierwsze skojarzenie
z własnymi przełącznikami w centrum sterowania.
Mnie tutaj cieszą dwie rzeczy.
W ogóle po pierwsze jedna rzecz, o której nie wspomniałeś,
to jest taka, że teraz to centrum sterowania będzie miało kilka stron.
Tego wcześniej nie było.
Tam było na początku tak, że mieliśmy kilka przełączników na górze,
których chyba nawet nie dało się przestawić,
albo dało się kolejność przestawić, ale nie dało się usunąć.
Nie dało się usunąć.
Bardzo nie chciał na przykład mieć ikonki Wi-Fi albo Bluetootha,
bo zawsze ma gdzieś to Wi-Fi włączone i po prostu nie chce go wyłączać.
Nie dało się tego zrobić, to jest raz.
Pod spodem mieliśmy zawsze sterowanie odtwarzaczem,
a pod spodem mieliśmy własne przełączniki.
Teraz będziemy mogli mieć kilka stron i tutaj nawet to było pokazywane,
na przykład ktoś może sobie zrobić stronę dedykowaną
do właśnie takich przełączników podstawowych,
drugą stronę do muzyki i trzecią stronę do różnych rzeczy w domu swoim,
bo oczywiście możemy mieć ten smart home.
Bardzo mnie to cieszy, że będą aplikacje mogły się z tym integrować.
Pytanie, ile deweloperów się na to zdecyduje.
Nie wiem, tutaj jakieś sterowanie głośnikami,
Sonos tutaj, no właśnie jakiś inny smart home,
który niekoniecznie jest oparty o HomeKit aplowski.
Zobaczymy, jak to deweloperzy wykorzystają.
Może jakiś, nie wiem, push to talk w aplikacji?
Wyciszenie mikrofonów podczas rozmowy, nie wiem.
No i jedna rzecz, która mnie bardzo, bardzo cieszy,
że będzie można w końcu wyrzucić przycisk aparatu
i latarki z ekranu blokady.
W końcu będziemy mogli sobie zrobić przycisk dyktafonu na przykład,
jakby ktoś chciał.
Tyle czasu trzeba było na to czekać, ale naprawdę,
to będzie można te przełączniki, które też i deweloperzy
będą sobie tworzyć do własnych aplikacji,
to będzie można sobie nie tylko do centrum sterowania dorzucać,
ale też właśnie do ekranu blokady.
Jestem bardzo ciekaw, czy to będzie ta sama lista.
Wygląda na to, że tak.
Że po prostu, co będziemy sobie tam chcieli,
to dorzucimy sobie do tego centrum sterowania,
a jeżeli będziemy chcieli mieć do czegoś dostęp cały czas,
to szczególnie myślę, że dla nas będzie sprawa istotna,
bo ta latarka to jest po prostu coś, co ja już ileś razy aktywowałem
zupełnie niechcący.
I bardzo chętnie też tu, Piotrze, zgadzam się z tobą.
Mi się to nie zdarzyło, natomiast aparat otwieram bardzo często.
A widzisz, aparat też, ale właśnie latarkę też parę razy włączyłem.
I to jeszcze pół biedy, jak jesteś w jakimś pomieszczeniu sam,
ale na przykład jak idziesz na przykład spać,
gdzieś tam masz osobę widzącą jeszcze obok siebie
i zdarzy ci się włączyć tę latarkę i komuś tak po oczach świecisz.
No to jest to nieprzyjemne.
To jest jedno, ale bateria się zużywa, a ty nawet nie masz wiedzy o tym,
że ta bateria się zużywa.
No VoiceOver cię poinformuje o tym, ale łatwo przegapić.
Mnie zastanawia inna rzecz w tym centrum sterowania,
bo z tego, co było pokazywane, wynika, że żeby pokazać te dalsze opcje,
te dalsze warstwy i tam różne strony,
to trzeba jakimś gestem przeciągać w górę i w górę i w górę,
aż się dotrze do tego miejsca, gdzie się ma te przełączniki,
do których się chce aktualnie dotrzeć.
Pytanie, jak to będzie rozwiązane z VoiceOverem?
No ja tutaj widzę dwie opcje.
Jeśli to są faktycznie strony w pionie, a nie w poziomie,
no to albo to się będzie przewijało automatycznie.
Może to będą jakieś kontynery na przykład.
Może to się po prostu będzie samo przewijało gestami,
a może po prostu gestami, trzema palcami w górę, w dół będziemy to przewijać.
Zobaczymy.
No i też do przycisku Action Button będzie można przypisać te nowe przełączniki.
Tak powiedzieli.
No właśnie.
Jakieś aplikacje będą mogły się z tym w jakiś sposób zintegrować.
No dobrze, a tymczasem mamy wiadomość głosową.
Wojtek nam coś nagrał na Whatsappie.
No to posłuchajmy.
Dobry wieczór panowie.
W temacie manipulacji ikon na ekranie.
Z tego, co mi się opiło o uszy,
to ma być właśnie też skopiowane z Androida,
gdzie na Androidzie możemy tymi ikonami sobie manipulować w taki właśnie sposób,
że dodajemy sobie je jakby upuszczając tam w jakimś fragmencie ekranu.
Bo teraz no to wiecie jak jest, że gdzieś tam dodajemy sobie ikonę
i ona wskakuje gdzieś tam na miejsce, na ekranie, na tej siatce.
Natomiast teraz będzie można z tego co ja wyczytałem właśnie
dowolnie sobie tę ikonkę przesuwać.
Ja właśnie jestem ciekaw jak to będzie nam ogłaszane przez VoiceOvera,
bo na Androidzie możemy sobie ustawić na przykład właśnie ikonki
no nie tylko na przykład w pozycji 1, 2, 3,
ale na przykład 1,5, 2,5.
To mogą być takie jakby różne wartości.
Jeżeli chodzi o te ikony też w trybie ciemnym,
to one mają jakby też same w sobie być ciemniejsze,
co na przykład osobom, które coś tam jeszcze widzą,
a używają trybu ciemnego też się chyba spodoba,
bo no mnie na przykład często, gęsto używam trybu ciemnego,
odkąd tylko się pojawił, ale gdzieś tam w nocy te ikony
potrafią na przykład razić.
Co do centrum sterowania, też fajna sprawa,
chociaż no tak jak Paweł to wspomniał,
że cofamy się trochę w stery, jeżeli chodzi o Androida.
Natomiast jestem ciekawy, czy da się, czy coś o tym wiecie,
w końcu dodać na przykład przycisk włączający,
bądź wyłączający GPS.
Mi tego na przykład bardzo brakuje.
No i rzeczywiście jeszcze taka druga moja refleksja,
że znakomita sprawa z tą latarką,
że będzie można ją w końcu wyeksponować gdzieś z tego
tak na przykład ekranu blokady, z ekranu powiadomień,
bo ona gdzie byśmy nie byli, to ona wszędzie się pojawia
i jakkolwiek czasami się przydaje, to częściej jednak przeszkadza
i przez przypadek się gdzieś tam włącza.
Ja bym w ogóle tam chciał mieć pustkę.
Ciekawe, czy będzie się dało w ogóle ją usunąć,
żeby ten obszar był pusty.
Natomiast w to miejsce myślę, że wielu z nas coś sobie innego wstawi,
aniżeli tę latarkę.
No usługi lokalizacyjne.
Ciekawe, czy będzie można sobie włączać i wyłączać.
Prawdopodobnie to wszystko zależy od listy akcji, które Apple udostępni.
Tego się dowiemy prawdopodobnie bardzo szybko,
jak tylko ktoś zainstaluje betę iOS-a 18.
Skoro mowa o kolejnych funkcjach i kolejnych możliwościach,
to Apple stawia od dawna na prywatność
i stawia na nią jeszcze intensywniej.
Aczkolwiek tu mam wrażenie, że wprowadza do systemu,
jako mechanizm systemowy, taką opcję,
którą niektóre aplikacje mają już natywnie w sobie.
Na przykład Outlook.
Czyli po prostu możliwość zabezpieczenia danej aplikacji
jeszcze dodatkową warstwą w postaci tego, co mamy.
Czyli kod i jakaś biometria w zależności od tego,
jaki mamy sprzęt Face ID lub Touch ID.
No tak, tylko że tutaj to będzie dostępne dla wszystkich aplikacji,
więc myślę, że to jest coś, co może się przydać.
Może ktoś będzie chciał sobie…
Niektóre komunikatory też to faktycznie mają,
na przykład WhatsApp, ale jakby ktoś chciał sobie Discorda
albo nie wiem, Telegrama zabezpieczyć z tego czy z innego powodu.
Może jakieś Teamsy chcemy, jakieś poufne rzeczy zabezpieczyć.
No to będziemy mieli teraz do tego możliwość.
Powodów, dlaczego warto coś takiego sobie włączyć może być wiele.
Może czasami podajemy telefon znajomym
i nie chcemy, żeby nam ta osoba gdzieś zaczęła
śpierać po naszych wiadomościach, po naszych kontaktach.
Jak ktoś bardzo chce sobie tak to wszystko pozabezpieczać,
no to będzie więcej do tego możliwości.
Będziemy też w stanie aplikację sobie ukryć.
I to jest też coś, co przynajmniej z tego, co pamiętam,
jest na pikselach i w Samsungu to w ogóle tam działa
jeszcze bardziej bezpiecznie, bo tam jest osobna partycja systemowa na to.
Natomiast będzie też można sobie taki katalog zabezpieczony
stworzyć aplikacji i do otwarcia tego katalogu
na ekranie głównym będziemy musieli się zidentyfikować
i tam możemy jakieś wrażliwe aplikacje sobie pochować.
Tak jest. Swoją drogą, rzeczywiście Piotrze,
tu podałeś bardzo dobry przykład jeżeli chodzi o Teamsa.
To mnie zastanawia, dlaczego Microsoft nie dodał opcji
dodatkowego zabezpieczenia do tej aplikacji,
a ona jest akurat taką, która może rzeczywiście
w sobie zawierać różnego rodzaju połówne dane,
no bo w Teamsie korespondujemy z naszymi koleżankami,
kolegami z pracy, więc tam różne, różne rzeczy mogą się pojawiać.
Outlook na przykład ma takie zabezpieczenie, a Teams jakoś nie.
Jeżeli chodzi o prywatność, to również mamy tutaj
zmiany jeżeli chodzi o udostępnianie kontaktów, prawda?
No tak. Normalnie było tak, że kiedy aplikacja jakaś
prosiła o dostęp do kontaktów, to dostawała dostęp.
To wszystko albo nic.
Dokładnie, do wszystkiego albo do niczego,
a teraz będziemy mogli wybrać, do których kontaktów dostęp będzie,
więc już kończy się ta wymówka, że udostępniłem twoje kontakty
jakiemuś tam serwerowi, któremu może nie do końca ufasz,
jakiejś usłudze, no bo musiałem, żeby tam znaleźć znajomych,
coś tam, musiałem wszystkie udostępnić.
No teraz już będzie można sobie to po prostu powybierać
i na zasadzie zaufania konkretnych osób te dane udostępniać, to prawda.
Ale ciekawe w jaki sposób to będzie rozwiązane,
czy na przykład na zasadzie udostępniania konkretnych list,
czy rzeczywiście będzie taka opcja dla hardkorów,
żeby sobie przeklikać całą listę naszych kontaktów
i wybrać, że tylko udostępniaj te konkretne kontakty.
Myślę, że tak, no bo tak to już działa dla zdjęć,
nie wiem czy spotkałeś się kiedyś z tym,
bo jeśli jakaś aplikacja żąda dostępu do zdjęć,
no to masz trzy przyciski, nie zadzwalaj,
zezwól na wszystkie i wybierz zdjęcia
i tam można sobie chyba właśnie jakieś albumy zaznaczyć,
czy może właśnie nawet pojedyncze zdjęcia.
Nigdy nie wklikiwałem się akurat ze zdjęciami,
natomiast myślę, że z kontaktami chyba właśnie tak też będzie.
I chyba można założyć spokojnie,
że to będzie raczej biała lista niż czarna,
czyli że wybieramy te kontakty, które chcemy udostępnić,
a nie te, które chcemy wykluczyć.
Z udostępniania.
Na to by to wyglądało.
Pewnie tak.
Akcesoria, łączenie z akcesoriami,
też tu jakoś prywatność ma być bardziej restrykcyjna, prawda?
Będzie jakieś API, które będzie pozwalało
na łatwiejsze parowanie akcesoriów różnych po Bluetooth.
Ja tutaj teraz czytam ze strony Apple.
Zobaczymy, czy tutaj…
No właśnie, deweloperzy będą w stanie
parować nowe akcesoria,
jednocześnie zabezpieczając informację
o pobliskich urządzeniach Bluetooth.
Nie wiem dokładnie, na czym to ma działać.
Nawet nie wiedziałem, że zewnętrzne aplikacje mogą
rozglądać się, jakie mamy widoczne urządzenia Bluetooth w okolicy.
Zawsze jakoś myślałem, że nie było do tego API,
no a tutaj okazuje się, że chyba jednak coś było.
No ale teraz to będzie jakoś bardziej bezpiecznie rozwiązane.
IOS to oczywiście też konkretne usługi,
które mamy do dyspozycji
i do nich za moment przejdziemy,
chyba, że jeszcze coś w samym systemie,
coś zapamiętaliście z takich nowości, zmian,
co tam Apple ogłosiło.
W kolejności to mamy aplikację wiadomości.
I tutaj w sumie są nowości, które są na wszystkich systemach,
więc to już mogę powiedzieć,
to jest iOS, to jest też iPadOS i to jest macOS.
Trochę się pozmieniało w aplikacji wiadomości.
No właśnie.
Tak na przykład
formatowanie możemy sobie pogrubiać,
możemy sobie kursywę wstawiać na różne fragmenty tekstu.
Będziemy też mogli na różne akapity,
możemy sobie zaznaczyć tekst
i tylko na pojedyncze słowo na przykład dodać jakieś efekty.
Nie wiem, komu się przypomina.
Przypominałem zajęcie informatyki i dodawanie efektów w Wordzie.
Bo ja pamiętam takie czasy.
No i tak samo będzie teraz można w aplikacji wiadomości
sobie zrobić, że na przykład jakieś pojedyncze słowo
będzie jakoś podskakiwać, zmienić się.
Nie wiem, jakie tam będą efekty.
Ciekawe, czy to będzie jakoś nam anonsowane,
bo te inne efekty były.
Ja bym chciał dźwięki jak w Messengerze.
A czemu nie? To bym się ucieszył.
Będziemy mogli sobie wiadomości planować,
a jak mieliśmy to w aplikacji Poczta,
no to tak samo wiadomość, jak będziemy mogli sobie
zaplanować wiadomość, żeby na przykład
nam się wysłała jutro albo za godzinę.
Będziemy mogli sobie po prostu to ustawić.
Będzie wsparcie na wysyłanie SMS-ów przez satelitę.
Jeśli ktoś ma tego nowego iPhona
i korzysta z tej funkcji, to wcześniej było dostępne
dla połączeń i tam będzie też można
jakoś wideo wysyłać, więc jeśli służby ratunkowe
będą potrzebowały zobaczyć, gdzie jesteśmy,
to jakoś będzie się dało też to wysłać.
To zdaje się, że od czternastki, tak?
Tak, iPhone 14 i wyżej, dokładnie.
Ale chyba jeszcze nie w Polsce, prawda?
Nie, to jest tylko w kilku krajach, tak.
Ale coś, co w Polsce już jak najbardziej będzie,
to było takie wspomniane, jak tutaj rozmawialiśmy
przed audycją o By The Way,
bo przy okazji RCS będzie.
Tak, w końcu.
Jest RCS na stronie Apple też?
Jest.
Czyli nie przejęzyczył się pan Greg Federighi.
Tak, bo to było tak, że najpierw było wspomniane
o tej satelicie, o możliwości wysyłania wiadomości
przez satelitę, jeżeli nie mamy zasięgu
łączności komórkowej ani internetu,
a potem w podsumowaniu takim,
to nagle była informacja o tym,
że wiadomości RCS będą.
Więc z androidziażami będzie można się dogadać
i na przykład wiedzieć,
czy wiadomość została odczytana, tak?
No właśnie, miałem powiedzieć,
dla tych, którzy nie wiedzą wiadomości RCS,
po prostu dodają takie funkcje,
które możemy znać ze współczesnych komunikatorów
do zwykłych SMS-ów.
Reakcje będzie można dodać.
O właśnie, a propos reakcji,
najwcześniej mieliśmy takich pięć czy sześć reakcji,
czyli tam kciuki w górę, w dół,
śmieszek, znak zapytania, wykrzyknik.
Reakcje, które co ciekawe, miały swoje własne dźwięki
na powiedzenia, co mi się szalenie podobało.
Teraz będziemy mogli,
tak jak to jest w wielu, wielu innych komunikatorach,
Discordy, Whatsappy i co tylko,
będziemy mogli reagować dowolną naklejką,
dowolnym emoji.
Więc to też zostało poszerzone.
Ale właśnie, RCS to są reakcje,
to są powiadomienia, że ktoś pisze.
To jest natywne wsparcie dla wiadomości głosowych,
dla załączników wideo o wyższej rozdzielczości,
co może się nam wbrew pozorom czasami przydać,
jak będziemy musieli coś osobie widzącej wysłać na przykład.
Więc to tego typu rzeczy będą dla nas dostępne też.
Z osobami, które z Androida,
z telefonów z Androidem korzystają, przepraszam.
Czyżby tam Ci się, Piotrze, coś instalowało po drodze?
Bardzo możliwe.
Właśnie tak coś słyszę.
To już wiadomo, od kogo będziemy mieli informacje
dotyczące iOS-a na bieżąco.
To jeżeli chodzi o wiadomości,
a skoro o komunikacji mowa, to mail, prawda?
Też nam tu trochę nowego przynosi.
Takie sortowanie przede wszystkim różnych wiadomości.
Na różne listy, grupy?
Tak, na listy, grupy.
To, co ciekawe, tutaj jest napisane na stronie
Apple Coming Later This Year,
czyli pewnie w wersji 18.0 tego nie będzie.
Natomiast mamy pierwsze kategoryzowanie,
więc aplikacja Poczta będzie nam w stanie…
Ja sobie tutaj otworzę informacje szczegółowe.
Algorytmy na urządzeniu będą organizować nam wiadomości
na różny kontakt.
Będziemy mieli kategorie główne,
gdzie będą takie najważniejsze wiadomości,
czyli od osób, które znamy, z kontaktów.
Wiadomości wrażliwe czasowo,
czyli pewnie jakiś tutaj był podany przykład.
Jakieś na przykład bilety na samolot,
jakieś spotkania, na które musimy jak najszybciej odpowiedzieć.
A pozostałe maile będą sortowane do innych kategorii,
takich jak na przykład paragony,
potwierdzenia, promocje, marketing
i aktualizacje dla newsletterów.
Czyli taka bardzo przydatna funkcja,
funkcja zerżnięta dosłownie z aplikacji
takich jak Gmail czy Outlook,
które to już od jakiegoś czasu mają.
One to mają na serwerze.
No a tutaj to jest coś, co będzie dostępne nas na urządzeniu.
Niestety to będzie,
no po pierwsze to będzie dostępne później,
a po drugie to będzie niestety tylko dostępne
w językach angielskich.
No tak, bo to prawdopodobnie jakiś tam model
odpalany lokalnie będzie tę pocztę czesał
i sprawdzał co do czego pasuje
i on będzie wytrenowany przede wszystkim właśnie
na język angielski.
No i niestety tu będziemy poszkodowani.
No ale może kiedyś, może kiedyś.
Coś czuję, że pytanie o AI
i te wszystkie modele językowe
to w kontekście języka polskiego
to dojdzie do słynnego pytania o Siri.
No ale o tym to sobie też porozmawiamy za chwilkę.
To chyba jedyna taka duża nowość
jeżeli chodzi o pocztę, prawda?
Bo tam nic więcej nie było takiego.
Nie, nie.
Jeżeli chodzi o mapy.
Jakieś nowe trasy.
Ja to jedynie zaobserwowałem
i zapamiętałem.
Tak szczerze mówiąc na tych mapach
jakoś bardzo się nie skupiłem.
One były bardzo amerykańsko-centryczne.
Jakieś trasy ze wskazówkami głosowymi
po parkach amerykańskich
czy coś jeszcze?
Tak, to jest dostępne w Stanach i w Japonii.
Co ciekawe, generalnie tutaj chodzi o to,
że dla tych, którzy lubią sobie chodzić na wędrówki
będzie można sobie zobaczyć mapy topograficzne.
Więc jakieś rzeźby terenu, wzniesienia,
doliny, niziny
będzie można sobie zobaczyć
i będzie można sobie robić trasy na wspinaczki.
I wtedy mapy nas poprowadzą właśnie po tych ścieżkach,
które są dostępne, tak jak wspominałeś,
w parkach narodowych w Stanach Zjednoczonych.
No i chyba to tyle jeżeli chodzi o mapy.
Bo nic tam więcej się nie pojawiło.
Nie zapamiętałem przynajmniej.
Można chyba…
Można też własne tworzyć trasy piesze.
I to chyba nie tylko w Stanach,
ale nie jest powiedziane, jak to by dokładnie działało.
Czy to byłoby coś, co nam by się przydało,
czy moglibyśmy sobie, nie wiem, tak jak to robimy
na przykład w jakiejś wojzwiście
czy stream assistancie
po prostu sobie jakąś trasę stworzyć w mapach.
Podobnie, że sami sobie dodajemy punkty.
Nie wiem, ale może coś takiego się pojawiło.
Widzę, że mamy wiadomości od Maćka.
Więc posłuchajmy, co nasz słuchacz ma
nam ciekawego do powiedzenia.
Co do nowości w wiadomościach.
Podoba mi się to planowanie, że będzie rzeczywiście.
Tak jak to miało miejsce w mailu.
Szczerze mówiąc, brakowało mi tego
w aplikacji wiadomości.
I tak tylko czekałem, czy w kolejnej odsłonie systemów
zostanie to dodane.
No i się nie pomyliłem.
Będzie fajnie, bardzo fajnie.
I jeszcze sugestie, nie?
Wiadomości.
Tak jak chyba zdaje się, mamy to na Apple Watchu,
że możemy tam sobie inteligentne sugestie wiadomości.
Zdaje się.
Na podstawie gdzieś tam
właśnie, pewnie
jakoś ostatniej wiadomości czy coś, nie?
Że będą te sugestie.
W sumie ciekawe. A co do naklejek.
Co do reagowania naklejką.
To tak naprawdę to już de facto mamy
dodane w iOS-ie 17.
Więc nie do końca wiem, o co chodzi.
To zresztą nie jest jakoś
fajnie nam anonsowane niestety.
Natomiast jeżeli to by było stricte
pod tabaki
i byłoby to rzeczywiście,
jeżeli by można było emotką normalnie
reagować, tak jak jest to w Whatsappach
i tak dalej, to by nie było wcale głupie.
Natomiast stricte
doprecyzowując
naklejki, mamy
już reakcję
na wiadomość.
Za pomocą naklejki mamy już w iOS-ie
17.
Natomiast jeszcze jedna
rzecz. Odnośnie
tych kategoryzacji
w mailu, to ja się obawiam, że to
zbyt szybko
do nas nie dojdzie.
Jeśli chodzi o nasz
język polski wspaniały, no tak jak
nie mamy jeszcze list zakupów,
tworzenia
inteligentnego tworzenia list zakupów, no nie?
To był bajer w iOS-ie 17.
Prawda?
No a jedynie póki co to chyba
angielski zdaje się to ma.
Zdaje się, że inne języki
tego też jeszcze w ogóle nie wspierają, typu niemiecki
i tak dalej, więc no to
ciekawe kiedy
się doczekamy, prawda, tej
grupowania automatycznego
maili. Jeszcze odnośnie
RCS, tegoż standardu.
W ogóle ja tego nie wychwyciłem, tak szczerze mówiąc.
Chyba nawet,
bo jakoś tak to zostało mimochodem powiedziane, nie wiem.
Po prostu jakoś, nie wiem, nie wychwyciłem.
Natomiast warto tu zwrócić
uwagę, że no
te wiadomości nie będą szyfrowane, prawda?
Jak iMessages są
szyfrowane między iPhonami end to end,
to
tutaj RCS-y nie będą, prawda?
Oczywiście będziemy mieli natywne wsparcie
i tak dalej.
Natomiast no szyfrowania
tutaj nie będzie.
Dzięki Maćku
za te informacje.
Ja myślę,
że to właśnie chodzi o te
konkretne naklejki, o te konkretne emotki,
którymi będzie można reagować.
Bo tam jakaś taka informacja była,
że to będzie rozszerzone
do tego akurat właśnie.
Nie, że kilka jakichś zdefiniowanych
reakcji, ale tam będzie można to rozszerzyć.
O coś własnego.
Tak, ja na razie tylko widzę
6 reakcji, które
było, a teraz będzie to można
rozszerzyć jeszcze bardziej.
No właśnie,
i wydawało mi się, że to było dzisiaj zdane wcześniej,
ale no ja tego u siebie nie widziałem, a dosyć często
akurat z tych reakcji wykorzystam.
No a teraz faktycznie tego ma być
po prostu więcej. Jeśli chodzi o RCS-a,
tutaj też masz rację.
Na Androidzie ponoć jakieś szyfrowanie jest,
natomiast to szyfrowanie działa
jakoś po serwerach Google,
to jest jakieś google’owskie
rozszerzenia tego protokołu.
I Apple powiedziało, że oni takich rzeczy
innych firm nie planują wdrażać.
No i jeśli ktoś chce szyfrowane wiadomości na iPhonie,
no to albo iMessage, albo jakiś
inny komunikator po prostu. Bardzo
natomiast jestem ciekaw, czy doczekamy się w Polsce
kolejnej opcji,
o której była mowa, czyli
tap to cash.
Też bym się
nie nakręcał, bo nie mamy
do dzisiaj Apple Cash, więc
tych transferów takich po
iMessage również nie ma.
Więc obawiam się, że to
może być jedno od drugiego zależne.
Tak, bo to jest właśnie z tym Apple
Cash związane, więc też tutaj
raczej bym na to nie liczył.
Natomiast na czym ma to
polegać? To ma polegać na tym, że
będziemy mogli się rozliczać
z innym posiadaczem
iPhona pieniężnie
poprzez po prostu zbliżenie
dwóch telefonów
do siebie. I ma być to też ukierunkowane
na prywatność, że tam nie ujawniamy
swojego numeru telefonu,
więc jeżeli
na przykład jesteśmy gdzieś tam
w jakimś miejscu
i chcielibyśmy się z kimś rozliczyć jakąś
kwotą, no to ma być to możliwe po prostu
tak właśnie typowo zbliżeniowo
bez ujawniania jakichś
większych prywatnych danych o sobie.
No ciekawe, ciekawe,
ale też
podejrzewam, że
skończy się to na tym, że
u nas to dostępne nie będzie.
My się musimy zadowolić Apple Pay,
który już od jakiegoś czasu
na szczęście u nas działa.
Dziennik.
Czy wy obserwowaliście
jakoś, zapamiętaliście co tam,
jakie nowości w tym dzienniku mają być?
Przeszukiwanie
starych wpisów.
W sensie możemy sobie wyszukać któryś z wpisów,
który wcześniej stworzyliśmy. Myślałem,
że to już jest, ale szczerze mówiąc nie poświęciłem
specjalnie czasu w aplikacji dziennik.
I
coś, co się nazywa insights. W ogóle to słowo
insight, w sensie insight,
wgląd, przewijało
się przez tę konferencję w dość
dużej ilości miejsc.
No i tutaj mamy mieć jakiś podgląd,
nie wiem czy to jest rodzaj jakiejś asysty,
takich podpowiedzi inteligentnych,
jak mamy osiągać swoje cele.
Coś tak zrozumiałem.
Wiesz co, wydaje mi się,
że tutaj mylisz dwie rzeczy. Jeśli chodzi o
aplikację dziennik, ja sobie tutaj
cały czas śledzę strony Apple,
bo tutaj coś nie zapamiętałem. Natomiast co mamy?
Po pierwsze będziemy mogli swój stan psychiczny
też zapisywać w tym dzienniku i po prostu
napisać jak się czujemy. To jest
powiązane z tą funkcją, która została dodana do
aplikacji zdrowia, to mindfulness.
Cała ta sekcja to teraz będzie
też zapisywane w dzienniku.
Oprócz tego będziemy mogli sobie
różne cele ustawiać i będziemy mogli
różne statystyki sobie zobaczyć, więc na przykład
ile dni pod rząd dodawaliśmy coś z tego dziennika,
takie statystyki.
A, to jest insights. Dobra, masz rację.
To się faktycznie tak nazywało, bo jeszcze było coś
właśnie związane z insights w aplikacji TV,
ale to będzie później. I w
watchu też jakieś tam
insight w trening, coś tam.
A, no to widzisz.
Myślałem, że to się jakoś inaczej nazywa,
ale przepraszam, zwracam Ci honor.
Dużo insajdów po prostu.
Tak, i jest wyszukiwanie faktycznie,
tak jak wspomniałeś. Szczerze powiedziawszy,
to dziennik to jest taka aplikacja, którą
jak dowiedziałem się, że ona będzie, to
chciałem się pobawić, a potem najzwyczajniej
świeci o niej, zapomniałem. Odpaliłem ją
może za dwa razy i jakoś…
I tyle. To jest dla mnie
aplikacja, która by się świetnie
nadawała albo na Maca,
ewentualnie na iPada. Nie ma jej ani tu, ani tu,
więc… Dokładnie.
Dokładnie. To przechodzimy sobie
dalej. Tryb gry.
To coś dla tych, którzy sobie lubią grać
i którzy chcą
wycisnąć ze swojego iPhone’a,
przede wszystkim iPhone’a,
maksimum
możliwości, bo ten tryb gry
ma się jakby skupiać tylko
na tej grze, którą sobie odpalamy.
I ten tryb
ma zmniejszać różnego
rodzaju aktywności w tle, które
mogłyby zaburzyć proces
naszego grania, po prostu wszystkie wydajnościowe
ręce na pokład.
No i gramy, jeżeli ktoś
właśnie będzie chciał jakąś tam
zasobożerną gierkę sobie
na iPhone’ie odpalić. Tak
to przynajmniej zrozumiałem.
Coś jeszcze o tym trybie gry?
Tak. Dla nas będzie miało takie dwie istotne
też efekty uboczne, bo to jest coś, co było wcześniej
dodane na Macu, teraz właśnie to się też na
iPhone’ie i na iPadzie pojawiło.
To chyba nawet działa z każdą grą, a natomiast
to też zmniejsza
opóźnienia z kontrolerami
Bluetooth, więc tam jak ktoś ma, no to się
ucieszy, ale też powinno zmniejszać opóźnienia
z AirPodsami. One chyba wtedy
przechodzą w jakiś inny kodek, żeby ten dźwięk
był bardziej responsywny. A to już
jak najbardziej możemy odczuć.
O, no to rzeczywiście, to myślę, że
ten tryb gry warto będzie sobie
włączać, być może nie tylko w trakcie
grania, ale i w
różnych innych sytuacjach będziemy
mogli go docenić. No i
zdjęcia, zdjęcia,
aplikacja, z której też
podejrzewam, że niejeden
z nas korzysta w taki
czy inny sposób i tutaj
ta aplikacja została dość
mocno przebudowana.
Tak, została przeprojektowana
tak naprawdę od
zera i
co ja tutaj sobie zamontowałem?
Tutaj był taki, dobrze,
może zajmę się tobą
później, tutaj swojego telefonu.
Mamy nowy widok i ten
widok, to jest jeden ekran chyba,
tak rozumiem, że tak jak wcześniej mieliśmy kartę,
teraz już chyba tych kart nie będzie. Zamiast
tego, na górze będziemy
mieli
widok zdjęć na górze,
jakąś siatkę z zdjęciami, a
na dole będziemy mieli różne przyciski
do naszej biblioteki
i tam będziemy widzieć rzeczy typu
zdjęcia z dzisiaj,
różne albumy i tak dalej.
Będzie przycisk do filtrów i tam
w filtrach będziemy mogli sobie zrzuty ekranu
odfiltrować. Będą też
różne kolekcje i kilka takich
przykładów kolekcji, jakie będziemy mieli.
Według tematu,
te tematy to mogą być
związane z konkretną datą, z konkretnymi
osobami, wycieczkami, więc tutaj
system będzie w stanie wykryć, że
w jakimś miejscu byliśmy dłużej.
Mieliśmy wcześniej to jakoś z tej sekcji
lokalizacji, to jakoś było inaczej
wyświetlane teraz, po prostu się to zmieniło.
Będzie też można
odfiltrować sobie
jakieś rachunki, więc jeśli
będziemy miały ostatnie zdjęcia, to system jakoś inteligentnie
będzie w stanie wykryć, że na przykład ktoś zrobił zdjęcie
jakiegoś rachunku,
co czasami osoby widzące zwłaszcza robią
i to będzie odfiltrować.
Jeśli sobie taką całą kolekcję
otworzymy, na przykład w wycieczki,
którą właśnie spędziliśmy ze znajomymi,
no to będzie można od razu taką całą
kolekcję udostępnić komuś,
więc myślę, że to jak najbardziej się
może przydać.
Na kolekcję
z osobami będą też w stanie nam
wyświetlić pogrupowane osoby,
czyli powiedzmy jeśli telefon wykryje,
że bardzo często na zdjęciu
występujemy z naszym
partnerem, partnerką, rodzeństwem,
naszym zwierzakiem, bo
przypominam, system też jest w stanie
wykrywać nasze zwierzaki,
no to będzie nam w stanie
wyświetlić
zdjęcia z daną grupą osób, więc jeśli
jeździmy często rodzinnie, no to będzie
taka grupa zdjęcia rodzinne,
na przykład ta kolekcja się nam wyświetli
i będziemy mogli sobie to
tak wyświetlać. Będzie też
nowy widok karuzeli, który tam będzie można
jakoś przesuwając palec w bok,
tutaj widzę Apple bardzo stawia na takie
ekrany, które zamiast właśnie kart
można przesuwać w różne strony.
Będzie widok karuzeli, który nam będzie jakoś
codziennie pokazywał
coś innego,
z którą napisałem cudzysłowem najlepszymi zdjęciami,
bo tak tutaj to było powiedziane, że system będzie
nam pokazywał zdjęcia, które nas mogą ciekawić,
za każdym razem będzie coś innego,
będzie można sobie coś
oznaczyć jako ulubione,
ten ekran karuzeli też będzie
można w jakiś sposób sobie to
stosować, w jaki nie wiem, szczerze mówiąc
to mi jakoś ominęło, natomiast
faktycznie aplikacja
zdjęcia została
po prostu przeprojektowana.
A tymczasem widzę, że
mamy tutaj jakiś
telefon, więc
odbierzmy to połączenie,
Bartek jest z nami, witaj.
No witajcie,
bo akurat słucham waszej audycji
a propos Apple’a
i zaciekawiła mnie
taka tylko jedna
sprawa, de facto w Polsce słyszałem,
że nie będzie dostępna, ale chciałbym się tylko
dowiedzieć na jakiej zasadzie ona działa,
a propos chodzi o Apple Cash,
bo ty Michale
mówiłeś, że to będzie działać
na zasadzie, że przyłożyć
iPhona jednego do drugiego
ale to wtedy to by trzeba
mieć podpiętą jakoś
kartę do
portfela, że jak to w ogóle
by działało?
No na pewno trzeba by było mieć podpięte
coś do naszego
portfela, żeby można było to pobrać,
ale tam prawdopodobnie tam jest jeszcze
jakiś mechanizm bankowy, który
Jaką kwotę chociażby
przelać, czy skąd dokąd,
no bo właśnie to mnie
tak zaciekawia, na jakiej zasadzie to działa
tak naprawdę. No wiesz, prawdopodobnie
będzie opcja, jeżeli
rzeczywiście gdzieś będzie to działało,
że wpisujesz tam po prostu kwotę,
jaką chcesz
komuś wysłać, albo ta druga osoba
ustawia sobie jaką od ciebie
pobrać. No właśnie, bo to też na jakiej zasadzie, bo
jaki iPhone do jakiego iPhone’a,
bo to też chyba raczej trzeba, że tak powiem
tutaj
zadecydować, w którą stronę
to by miało pójść. No to wiesz, to
jakby na chwilę obecną
to za mało wiemy, żeby dokładny
mechanizm tego procesu
opisać, ale jedyne
co wiemy, że właśnie ma działać
to dosłownie zbliżeniowo.
Okej,
nie słuchałem waszej audycji od początku,
ale tak zapytam, czy
może rozwiąże się
ten problem, bynajmniej właśnie z przenoszeniem
aplikacji po ekranach?
Bo ja bym
najmniej na swojej trzynastce spotkałem się
z takim przypadkiem, że jak opuściłem
aplikację i wyłączyłem
tryb edycji, to ta aplikacja
była w tym samym miejscu, jak
przed przeniesieniem.
Bartku, my na ten moment naprawdę
nie jesteśmy w stanie
odpowiedzieć ci na takie pytania
dotyczące kwestii dostępnościowych.
Pamiętaj, że dziś
to był jeden wielki
marketingowy show i zostało
pokazane to, co Apple
ma nam
do zaoferowania.
Jak oni to widzą? A my tak
naprawdę to dopiero w ciągu najbliższych miesięcy
będziemy w stanie jakoś zweryfikować
jak to wszystko działa w praktyce.
Więc, czy to rozwiąże
problem? Ja powiem
więcej. To może tak naprawdę to, o czym my
tu mówiliśmy o umieszczaniu
ikon na ekranach, to może
nam kilka nowych problemów dołożyć, jeżeli
tam się Apple wytnie przyłożył
do dostępności. Jeżeli chodzi o to wstępność, to tak naprawdę to tutaj może
się wszystko tak naprawdę zdarzyć. No właśnie, więc
odpowiedzi na takie
pytania to zostawmy sobie na później,
kiedy już będziemy wiedzieli coś więcej.
Okej, bo tutaj właśnie niedawno
zauważyłem taki problem i myślałem, że to tylko
u mnie coś się dzieje, bo jak zapewne
wiecie, że z moim iPhone’em ostatnio nie
za bardzo się, że tak powiem
dzieje wszystko w porządku i dlatego tak
zapytałem, więc o to przenoszenie
ikon, jak to się mówi. Nie, na ten moment
nic nie wiemy. Okej,
w porządku. No dobrze, no to tak
z ciekawości tylko zadzwoniłem a propos tego
Apple Cash, no ale no mówię, na razie szkoda
tak naprawdę, że tego nie przetestujemy
tutaj w Polsce. To znaczy wiesz, no
ciężko na razie wyrokować tak
jednoznacznie, ale wiele wskazuje na to,
że to u nas nie będzie działać.
No to to jest już druga rzecz
zaraz Siri tak naprawdę, że na razie
nie ma po polsku. No i myślę, że jeszcze
sporo Siri by się znalazł.
Sporo wody w Wiśle
upłynie zanim czegoś się doczekamy tak naprawdę.
Zgadza się.
Dobrze, dobrze, to ja słucham
dalej, nie przeszkadzam. Wtedy do usłyszenia.
Trzymajcie się serdecznie. Dzięki Bartku za telefon.
Pozdrawiamy cię również serdecznie
i do usłyszenia.
Dobra, to zanim do AirPodsów przejdziemy
to jeszcze krótka wiadomość od Maćka.
Być może właśnie ma jeszcze coś
dodania a propos iOS, a to już żeby ten
temat po prostu zamknąć.
Właśnie kurcze też żałuję
tego dziennika, że nie ma go na macOS
zwłaszcza właśnie na macOS.
Jakoś tutaj bym bardziej upatrywał
jego potencjał niż na iPhonie. Troszkę się
pobawiłem tą appką, ale jakoś tak
nie, na iPhone nie, na średnio
się poróbiliśmy szczerze mówiąc. No jest wejście
ekranu brajla okej, jest dyktowanie
okej, ba
zamiast pisać można sobie nagrywać te
wpisy też
tak naprawdę, ale nie, to
nie to samo jednak w sumie.
Jak na Macu byłoby.
No cóż, jak widać
nie jestem odosobniony w swoich
odczuciach.
No to przechodzimy do AirPodsów.
AirPodsy
współpracować będą z Siri jak najbardziej
i będziemy mogli
za pomocą
tych AirPodsów z Siri się
porozumiewać gestami, prawda?
Tak, będziemy mogli dosłownie
kiwnąć,
lub zakręcić głową do Siri
i Siri to zrozumie. Więc jeśli
mamy sytuację kiedy Siri nas pyta czy na pewno
chcemy coś robić, a nie wiem, ktoś do nas dzwoni
i Siri nas o tym informuje.
Zresztą taki był podany przykład właśnie, że
ktoś dzwonił i Siri pyta czy odebrać
i można powiedzieć tak, albo
nie, no ale jeśli nie chcemy się odzywać, bo
jesteśmy w takim miejscu, że po prostu nie chcemy
no to właśnie wystarczy
kiwnąć głową jeśli chcemy
lub zakręcić głową jeśli
nie chcemy.
No i używając akcelerometrów
i innych czujników
w AirPodsach Siri
będzie w stanie to zrozumieć.
Ja się tak tylko zastanawiam wiecie co
nad takim aspektem
kulturowym, bo chyba
w różnych krajach, w różnych miejscach kiwanie
i kręcenie głową to
różne ma znaczenia. Tak mi się
coś obiło o uszy, że na przykład
w pewnych miejscach kiwanie to jest
przeczenie, a kręcenie to jest
potakiwanie, a w innych odwrotnie, więc…
Znając
Apple pewnie o tym pomyśleli, coś tak
nie czuje, albo będzie do tego obciąć
w ustawieniach, może na podstawie języka Siri
to będzie się dostosowywać.
Bo jakoś wątpię, żeby Apple
coś takiego przeoczyło.
Ciekawe jak to będzie wyglądało.
Też izolacja głosu w różnych
hałaśliwych miejscach
ma działać
zdecydowanie lepiej.
To ma działać na
AirPodsach Pro.
Tam i by była jakaś taka demonstracja,
ale słuchajcie, nie wiem jakie jest wasze zdanie,
ale jak dla mnie to było
aż zbyt amazing, żeby to było prawdziwe.
Tak, mnie też zastanawia
fakt, przecież już była izolacja
głosu. Tak, i mi się wydawało,
że to aż tak potrzebne nie było, no ale
jak widać jeszcze Apple tutaj stwierdziło,
że można byłoby to jeszcze poprawić
więcej używając uczenia maszynowego.
No bo tutaj
takie coś będzie zastosowane, to będzie
dostępne tylko na AirPodsach Pro
drugiej generacji, więc tych nowszych.
No jestem naprawdę ciekaw, jeżeli
to by faktycznie
miało działać tak, jak to zostało
zademonstrowane na tym
filmie dzisiejszym, dzisiejszym
keynote, no to naprawdę byłoby to
coś, ale to no aż nie do uwierzenia,
że ten dźwięk miałby
być tak krystalicznej jakości
i to nie mówię nawet o tym
odszumianiu, bo no wiemy dobrze, że już są
różnego rodzaju algorytmy, które
odszumiać pozwalają, ale
ja mam na myśli, no to spektrum
częstotliwości, które tam
było przeniesione.
To naprawdę brzmiało bardzo dobrze.
O, ciekawe.
Spatial audio w grach, dźwięk przestrzenny także w grach.
Nie tylko w filmach, nie tylko w materiałach
multimedialnych, ale też w grach
będzie obecny.
Tak, będzie z tego API, po prostu deweloperzy będą
mogli sobie to wykorzystać, żeby dobrać
dźwięk przestrzenny do gier.
Pierwszą grą, która ma to pokazać będzie
mobilna edycja serii
Need for Speed. Zobaczymy, czy
jeszcze jakieś gry to wykorzystają.
No, potencjał jak najbardziej jest, bo ten dźwięk
zwłaszcza jeśli sobie spersonalizujemy
to,
oczywiście można to zrobić,
no to jest całkiem fajny.
Więc fajnie, że będzie to
dostępne dla deweloperów nie tylko treści
audiowizualnych, ale też gier.
No to słuchajcie,
czy coś jeszcze
a propos AirPodsów?
Chyba wszystko.
No to w takim razie
zobaczmy, co jeszcze Maciek ma do powiedzenia, bo
przed chwilą właśnie nam coś wysłał.
Jeszcze była jedna wiadomostka,
słuchajcie, gdzieś tam,
pominięta w toku, w każdym razie
chodzi o te naklejki jeszcze,
tak wracając do iOSa w takim układzie
i to, że Apple jest bardzo
inteligentne i nie
wszystko dodaje do czynności
rotora pokrętła VoiceOver,
no tutaj trzeba sobie
przytrzymać,
dwuklik z przytrzymaniem zrobić,
bądź też
no trójki bez przytrzymania
i tam jest, dodaj naklejkę, tam jest
edytuj wiadomość, więc to sobie sprawdźcie
i tam te naklejki się w każdym razie
kryją. No, postulowałem
to nieraz
w Apple Assistant, żeby to
ogarnęli, no nie ma jeszcze
póki co.
Okej, no to
dzięki Maćku w takim razie za te
informacje, to co oni tam kombinują?
Teraz jestem ciekaw.
Przechodzimy do
tvOS i tu
się dowiemy o co w tych insajdach chodziło.
Funkcja insajd
może wyświetlać nazwy
aktorów i nazwy ich postaci
w czasie rzeczywistym, czyli
oglądamy sobie jakiś film, generalnie
widzę, że to na początku jest dostępne chyba tylko
w aplikacji Apple TV, nie wiem czy
inne aplikacje też się będą
mogły z tym integrować, mniej więcej
no leci sobie jakiś film,
włączamy sobie tą funkcję insajd
albo przesuwając palcem w dół
po pilocie
do Apple TV ma
też wsparcie dla gestów, też można to
centrum sterowania na iPhonie uruchomić, jeśli oglądamy
coś na Apple TV i
po prostu wtedy faktycznie
gdzieś tam na ekranie obok tych postaci będzie się
wyświetlało, że ten aktor gra
tą i tą postać, w ten sposób
możemy sobie to zidentyfikować, to jest
jedna rzecz, a druga rzecz i to jest bardzo
fajne, bardzo bym chciał, żeby to
było gdzieś dostępne też
w innych usługach, chociaż
no można to też w inny sposób w sumie
osiągnąć, jeśli
podczas filmu, w czasie
w filmie leci jakaś muzyka,
jakaś piosenka, która nam się podoba
to ten tryb nam automatycznie też
wyświetli jej nazwę i
artystę i będziemy mieli przyciski
żeby od razu ją sobie gdzieś do
jakiejś playlisty na Apple Music
dodać. Tak naprawdę to
rozwiązanie technologicznie to podejrzewam,
że jest dosyć proste, tylko wymaga
dosyć intensywnego
tworzenia różnego rodzaju
metadanych dla każdego filmu
i też łącznie z rozpiską
jakieś kody czasowe,
żeby na przykład właśnie wyświetlać
w odpowiednim momencie informacje
na temat tej piosenki, ale rzeczywiście
fajnie, że coś takiego jest
i że będzie można
z tego korzystać. Kolejna
rzecz to mam wrażenie, że taka, która
przyda nam się dosyć mocno w Polsce,
jeżeli będzie oczywiście dostępna
globalnie, no bo to też pytanie jak to będzie
rozwiązane. Mam na myśli
możliwość regulowania
głośności lektorów i
czy lektorów, czy aktorów
tak naprawdę, czyli po prostu
oddzielanie głosu od efektów
muzycznych w filmach
i wysuwanie ich na pierwszy
plan. Jestem bardzo ciekaw
jak to zostanie rozwiązane.
Tak, i to było dostępne
wcześniej
jakoś na
w jakimś stopniu chyba na HomePodach,
nie wiem, natomiast teraz to będzie
bardziej szerzej, bo po prostu
to będzie dostępne na głośnikach telewizora
oraz na słuchawkach bluetooth, które
mamy podłączone, czyli to po prostu już będzie działało
wszędzie. No to
super, bo różnie to z tym
dźwiękiem w polskich produkcjach
bywa, zresztą to
realizacje polskich
filmów to czasem
legendarne są wręcz, jeżeli
chodzi o to, że aktorzy coś mówią,
ale tak naprawdę nie idzie zrozumieć
o co im
chodzi, bo wszystko przykrywa
dosyć głośna muzyka.
Ja tu jeszcze mam
w notatkach informację o tym, że
Apple TV ma mieć jakieś wsparcie dla projektorów.
Coś
zanotowaliście na ten temat?
Nie,
mnie to ominęło, ja mam tylko jeszcze napisane, że są
jakieś nowe wygaszacze ekranu.
Właśnie, chodzi o projektory
formatu 21×9,
czyli takie bardzo duże,
gdzie, no teoretycznie ja się na tym nie znam,
ale tak to było wspomniane
w konferencji, że filmy będzie można
oglądać w takiej rozdzielczości i z takim
poziomem szczegółu, jak to zaplanował
reżyser. I
te wygaszacze ekranu są właśnie również
dostosowane do tego, aby
te
projektory wyświetlały
je w pełnej rozdzielczości.
Także, no jak ktoś posiada taki
sprzęt, to super.
Ciekawe, czy to już jest taki sprzęt
klasykinowej,
czy tego typu
urządzenia, jeżeli ktoś, no
troszeczkę ma więcej gotówki,
niż przeciętnie, to może sobie kupić i zrobić
takie rzeczywiście
kino w domu.
No, ciekawe. Ja jeszcze bym wspomniał o napisach,
bo to też bardzo ciekawe, co się tam pojawiło,
że
napisy powinny się teraz bardziej kontekstowo
pojawiać w filmach,
w takich sytuacjach, w których, no właśnie,
Apple uznało, że najczęściej możemy ich
potrzebować, czyli na przykład jak wyciszamy dźwięk,
albo jak przewijamy
film do tyłu, żeby obejrzeć drugi raz tą samą
sekwencję, to on założy, że my
nie zrozumieliśmy
i pokaże nam wtedy napisy.
Posłuchajmy w takim razie
kolejnych wiadomości. Tu jeszcze Maciek ma
coś do powiedzenia, a za moment będziemy
przechodzić do następnego
urządzenia, tym razem do
zegarka. A jeszcze taka szybciutko
króciutka informacja, malutka,
dostałem właśnie maila
z informacją o buildach
właśnie iOS-ów 18,
macOS-ów i tak dalej,
w tym AppleSeed
beta program odnośnie accessibility,
więc zastanawiałem się,
kiedy,
prawda, czy
otrzymam w tym samym czasie,
nieco później niż kanał developerski,
ale natomiast mam
i mi się tego namnożyło teraz, bo
iOS-17 developer, iOS-17
public, iOS-17 AppleSeed
i iOS-18
to samo bez publica, więc
fajnie, w tych pozycji teraz,
jeśli chodzi o kanały
otrzymywania wersji beta, fajnie.
Ale chyba się wstrzymamy od instalacji,
póki co czekam na Twój raport,
Piotrek, czy nie uciekniesz
iPhona, czy bateria nie będzie
spadała ze 100
do 0 w ciągu dwóch godzin, także spoko,
jeszcze mi się nie śpieszy, dopiero druga, trzecia
beta, no, zainstaluję może, wtedy dopiero będę
dzielnie słać feedbacki, bo teraz może
szkoda życia, zwłaszcza, że to jest moje główne urządzenie,
prawda, więc…
A kiedyś bety to były
takie elitarne, żeby to
dostać to, no to
trzeba się było nieźle napocić.
To co, słuchajcie, zegarek?
Zegarek. Zegarek.
WatchOS 11, chyba to
będzie numer tego systemu.
Jak tak słuchałem
informacji o tym, co nowego
w WatchOSie, to mam wrażenie, że przede
wszystkim Apple tu stawia
na statystyki, na to,
żeby coraz to bardziej informować
nas o tym, co
się dzieje, jak to
wszystko wygląda, jak nasze
zdrowie i
jakie informacje
gromadzisz i po prostu
żeby nam je przedstawiać w jakiś
innowacyjny sposób.
Taka moja refleksja, jeżeli
chodzi o to. To było podzielone,
rzeczywiście jest to ważny temat, natomiast
cała prezentacja WatchOSa była podzielona na
dwie części, właśnie jedną odnośnie zdrowia
i drugą odnośnie komunikacji lepszej.
Tam parę funkcji też się pojawiło,
ale tak, statystyk jest dużo.
Tu właśnie pojawiają się kolejne insights,
znowu takie
na temat naszych
treningów, takie bardziej szczegółowe dane.
Na pewno teraz bardziej
pogłębiona jest analiza tego, jak nasze
ciało reaguje na trening w ogóle, czyli
używając danych zebranych podczas
snu,
gdzieś tam uderzeń
serca, jakichś różnych innych
czynników, które jest w stanie Apple Watch zbadać.
On próbuje
sobie stworzyć taki jakby obraz
tego, czego nasze ciało potrzebuje
i jak nasze ciało reaguje na
zmęczenie
aktywnością fizyczną.
Nie wiem, czy tak też zrozumiałeś
Piotrze, ale…
Tak, tutaj mamy
kilka rzeczy takich.
Zaczęło się od tego, że też
mamy tryb
trenowania, bo to jest coś, co można sobie
włączyć
jakoś i to właśnie, tak jak opisałeś,
będzie analizować, jak
nasz trening
wpływa na
nasze ciało. I system
będzie w stanie jakoś
ocenić, ile wysiłku tak naprawdę
włożyliśmy
w dany
trening. Tutaj, jeśli
zakończymy jakiś trening, to pojawi się nowa statystyka.
Nasz system będzie nasz trening oceniał
w skali od 1 do 10, jak
bardzo intensywny ten trening był.
Więc tutaj nie będzie brane pod uwagę powiedzmy
tylko, że przebiegliśmy dany dystans
czy przejechaliśmy na rowerze dany dystans,
ale jaki mieliśmy tęt,
ile kalorii spaliliśmy.
System będzie w stanie wyczuć, czy to był jakiś leki
spacerek powiedzmy, czy
to było coś, co
faktycznie nas intensywnie
zmęczyło. Tym samym
w aplikacji zdrowie mamy taką
zakładkę podsumowanie. Będzie można
sobie to podsumowanie dostosować.
Będzie można sobie różne informacje albo dodać,
albo usunąć z tej zakładki.
I to jest to, co myślę, że
wiele osób ucieszy. Wiem, że
sporo osób na to dziś na różnych portalach,
blogach narzekało.
No bo na Watchu możemy
sobie oznaczać cele.
No i powiedzmy, jeśli ktoś już naprawdę
bryluje sobie
treningi, ma powiedzmy
20 dni pod rząd robione,
ale coś się stanie.
Zachorujemy,
znamy jakieś kontuzje,
nie jesteśmy w stanie danych celi
na ten czy inny moment wykonywać.
Po prostu coś nam wypadło, ale nie chcemy tego czasu
stracić. Można
sobie teraz na pojedynczy
dzień jakieś cele zmodyfikować.
Na przykład wiemy, że nie przepiękniemy tyle, ile
zawsze, bo po prostu nie mamy czasu w dany
dzień. Będzie można sobie to zmienić.
Albo po prostu wstrzymać całkowicie,
żeby tego nie stracić.
Jeśli z jakiejś przyczyny po prostu nie możemy
wyciśnąć siebie tyle, ile zwykle,
no to możemy powiedzieć o tym systemowi
i on nie będzie nas
jakoś za to karał, powiedzmy.
Nie będziemy jakieś powiadomienia negatywne, które
dostawać i po prostu
te nasze cele zostaną
zachowane.
I tym samym
będzie jeszcze nowa
aplikacja, aplikacja Vitals,
czyli pewnie jakieś oznaki,
coś takiego. I to będzie jeszcze dało
nam najważniejsze dane
na temat
naszych danych, czyli jakieś tętno i tak dalej,
oraz trendy tych danych.
Więc jeśli system wykryje, że nam ostatnio
tętno, czy
poziom tlenu w krwi się zmieni,
no bo nowe oczy mają przecież do tego czujniki,
no to będziemy mogli, to system
może nam w tej aplikacji
na samym zegarku
poinformować, że
jest jakiś na przykład niepokojący
trend, albo wręcz przeciwnie, że coś
pozytywnie zmieniliśmy
w swoim życiu i ma to wpływ
na
nasze dane.
Też zdrowie
pań w okresie ciąży
Apple Watch ma w jakiś sposób
dodatkowo monitorować, więc
to takie kolejne usprawnienie.
Tak, no po prostu normy, jeśli ktoś
jest w ciąży, są
inne niż dla osób, które
nie są na przykład jakieś normy
tętna, tego typu rzeczy, więc możemy
teraz też zegarkowi powiedzieć, że jesteśmy
akurat w ciąży, no bo już była
wcześniej aplikacja do śledzenia
cykli miesiączkowych.
No i teraz będziemy też właśnie mogli poinformować zegarek,
że jesteśmy w ciąży.
No i po prostu wtedy te powiadomienia,
te alerty będą odpowiednio do
naszej sytuacji dostosowane.
Natomiast
jeżeli chodzi o te kwestie komunikacyjne,
to tu chyba
ma związek
z tym kolejna opcja, która
została nazwana przez
Apple SmartStacks, prawda?
Tak, to jest, SmartStack to jest
coś, co możemy sobie wywołać przewijając
w którąś stronę
starczy, to jest
miejsce, gdzie nam
na zegarku będą się wyświetlać
różne widżety. I teraz system
będzie w stanie te widżety dodawać
sam, jakoś na podstawie
inteligencji, która w tym systemie
będzie dostępna. Między innymi
będzie widżet do aplikacji, która na zegarek
zawita, mianowicie będzie
tłumacz na Apple Watchu, więc będziemy mogli
sobie różne rzeczy tłumaczyć.
Oraz
będziemy też mieli, właściwie
deweloperzy będą mieli API
do tej funkcji Live Activities.
To są takie powiadomienia, które mogą dynamicznie
się zmieniać na ekranie blokady.
Na przykład Uber wykorzystuje, jak
czekamy na taksówkę, to nam się takie na ekranie blokady
wyświetla tymczasowo powiadomienie, które
nas na bieżąco informuje o tym, gdzie jest
nasze taksy.
No to teraz na zegarku aplikacje też będą
mogły takie powiadomienia
nam wyświetlać.
Będzie też wsparcie dla funkcji check-in
w wiadomościach, która pozwala
nam poinformować osoby bliskie,
że nic nam się nie stało. To jest taka
funkcja bezpieczeństwa. Gdzieś
czekamy na kogoś, wysyłamy
zapytanie check-in i wtedy taka
i ta osoba co jakiś czas dostaje alert, żeby potwierdzić
tak, jestem tu, nic mi się nie stało.
I teraz to będzie też można
na takie alerty odpowiedzieć na zegarku i one też
jakoś będą mogły się uaktywniać
automatycznie, jeśli wykonujemy jakiś
trening typu bieg na zewnątrz
wieczorem. I to też system będzie
w stanie jakoś tę funkcję automatycznie
włączyć.
I jeszcze a propos
komunikacji.
Mamy nowe
API, która pozwoli deweloperom
integrować się z
funkcją, która została dana w tym najnowszym zegarku,
mianowicie podwójnego stuknięcia, czyli to jest ten
gaz, kiedy dwoma palcami mimo siebie
stukamy, czujniki na zegarku są w stanie to
wykryć. To na początku było
wykorzystywane w
kilku aplikacjach samego Apple’a.
Nie wiem, uruchamianie, zatrzymanie stoperów,
odbieranie połączeń.
No teraz deweloperzy też będą mogli
się z tym
integrować. No i tutaj jeszcze mam
jedną nowość zapisaną, że jest bardziej
inteligentna i dostosowywalna
tarcza
ze zdjęciami. Więc jeśli ktoś właśnie
chce sobie na zegarku jakieś zdjęcia wyświetlać
obok godziny, no to teraz
też to jakoś zostało ulepszone.
To co, opuszczamy
Apple Watcha, przenosimy
się do kolejnego urządzenia,
które wyposażone jest…
Może… Przepraszam za nim jeszcze,
bo to jedna rzecz, o której nie napisałem, a wydaje mi się,
że to jest dosyć istotna kwestia.
Mianowicie ten system,
czyli WatchOS 11
pozostawia w tyle kilka zegarków.
Mianowicie zegarki serii 4
i 5 już nie są wspierane.
Więc jeśli chcecie tego najnowszego WatchOSa
zainstalować, no to musicie mieć
zegarek serii S6
lub Apple Watcha SE
drugiej generacji. Pierwsza generacja i
zegarki serii S4 i 5, bo one miały
podobne procesory, niestety
już nie są wspierane. No i m.in. to
mojego zegarka dotyczy.
No to rzeczywiście przykra sprawa.
No cóż…
Może za jakiś czas będzie
okazja, żeby sobie wymienić
na jakiś nowszy model i żeby być
na bieżąco. Oczywiście, wiadomo, to wszystko
też zależy od tego, na ile wam
te nowe funkcje
Apple Watcha okażą się
potrzebne. A teraz
przechodzimy do następnego urządzenia. Urządzenia,
które też ma swój system
operacyjny, czyli do iPada.
iPadOS również w wersji
18
się pojawi.
I tu bardzo mocno z tego,
co zrozumiałem
i usłyszałem, to będzie
eksplorowany Apple Pencil.
Ten rysik Apple’a
dość mocno
będzie wykorzystywany, jeżeli
chodzi o te nowości, które
Apple tym razem ma nam do
zaoferowania.
Tak.
Zacznijmy od tego, wiadomo, że też wiele
funkcji, które wspominaliśmy, czyli te nowości
w poczcie, wiadomość, jak to dalej, to
na iPadzie też jest. Wiadomo, systemy są bliźniacze,
więc tutaj też
to jest.
Mamy…
Ja tutaj mam to w ogóle rozpisane
tak, jeśli chodzi o ten
rysik tutaj, tak jak to Apple
zaprezentowało w swojej prezentacji,
trochę interfejs się zmieni, aplikacje
będą też mogły mieć pływający pasek
kart, który będzie mógł dynamicznie
zmieniać się w pasek boczny, jakoś na
podstawie tego, co robimy. Będzie też można
ulubione karty sobie jakoś przypinać,
wystawiać jako ulubione i one zawsze ci będą
łatwiej
widoczne.
W niektórych aplikacjach
Apple będzie lepsza przeglądarka dokumentów.
W jaki sposób? Nie wiem, nie było to
powiedziane i jeszcze nie zdążyłem doczytać.
W całym systemie
będą nowe animacje.
I tutaj
pomału przechodzimy do możliwości nowego
rysika, ale nie tylko, bo
funkcja SharePlay, przypominam,
to jest ta funkcja, która pozwala
nam udostępniać
ekran różnych aplikacji,
na różnych aplikacjach
współpracować z inną osobą.
Ta aplikacja
pozwala nam właśnie teraz
rysować na ekranie dowolnej,
więc jeśli udostępniamy jakiś ekran, chcemy komuś
coś pokazać, możemy dosłownie palcem pokazać.
Myślę, że to nam aż tak
przydatne nie będzie. Natomiast
coś jeszcze, co zostanie dodane
i to z rysikiem nie jest związane, ale to jest
też właśnie związane z SharePlayem i udostępnianiem
ekranu. Będziemy mogli
zdalnie przejąć kontrolę
nad iPhone’em lub iPad’em innej
osoby. Jeśli to będzie dla
nas dostępne, to
myślę, że to jak najbardziej może być coś,
co będzie bardzo przydatne dla nas.
To prawda. Już tu, poza anteną
przed rozpoczęciem tej naszej dzisiejszej
audycji, to się zastanawialiśmy, czy
czasy kontroli zdalnej
urządzenia
czyjegoś, kto na przykład
nie potrafi sobie z czymś poradzić,
komu chcemy pomóc. Czyżby
to zaczęło nadchodzić i
zaczęło być możliwe?
Może i tak. Tutaj będziemy
przechodzić do tego, co będzie dostępne z tym
rysikiem, bo
słuchajcie, wow, jak ktoś
nie wiedział, do dzisiaj,
właściwie do iPadOS-a 18,
na iPadzie nie mieliśmy
aplikacji kalkulatora. To prawda.
To się zmieniło.
Jest kalkulator, będzie
miał wsparcie dla historii i konwersji
jednostek. To na iPhonie też będzie swoją drogą.
Na iPhonie będziemy mogli sobie
między różnymi jednostkami w budowanym
kalkulatorze
konwertować,
ale właśnie tutaj będziemy mieli wsparcie dla
rysika.
I tutaj mamy taką funkcję, którą Apun
nazwał notatkami matematycznymi. To jest też
coś, co będzie dostępne
w aplikacji notatki, więc my też będziemy
mogli sobie takie notatki
matematyczne zagnieżdżać.
I co nam to pozwoli? No będziemy mogli sobie
jakieś równanie
narysować i system nam automatycznie
kiedy wykryje znak równości
to równanie nam
rozwiąże.
I to jeszcze
wynik tego równania będzie wyświetlony
w taki sposób, żeby jak najbardziej
odwzorowywał nasze pismo ręczne. Więc to
wszystko ma wyglądać ładnie, spójnie,
tak jakbyśmy my to
sami
to napisali.
To pismo ręczne to chyba
się smart script nazywa, tak?
Ta usługa.
Tak, no bo to jeszcze poza kalkulatorem
faktycznie mamy taką funkcję smart script,
która nawet właśnie jeśli
piszemy coś szybko, niechlujnie,
to system jest w stanie wykryć to, co piszemy
i po prostu nasze pismo poprawić, a jednocześnie
zachowując nasz styl pisania.
Ciekawe, czy będzie działało po polsku?
Nie wiem,
nie zdążyłem tego sprawdzić, natomiast
właśnie to będzie wspierane.
Będzie poprawa pisowni,
będzie można wklejać tekst
i co ciekawe, jeśli będziemy tekst wklejać, to system
nam automatycznie też go dostosuje tak, żeby wyglądał
jakbyśmy go
napisali sami.
Będzie można właśnie obliczać w notatkach, natomiast
jeszcze wracając za chwilę do kalkulatora,
on będzie też wspierał zmienne
i będzie mógł
wyświetlać wykresy i co ciekawe, te wykresy
będziemy mogli jakoś rysikiem zmieniać,
po prostu przesuwając coś, zmieniamy wartość
jakiejś zmiennej i
ten wykres automatycznie będzie się
dostosowywał na zasadzie
tego, co my tam zrobiliśmy.
Więc to jest coś ciekawe, jak to będzie wyglądało.
No tak, funkcje równania to
będzie można sobie spokojnie obliczać.
I ciekawe, czy to będzie dostępne dla nas.
Pewnie to się będzie też dało ręcznie wpisać
no i mamy funkcję
audio wykresów od jakiegoś czasu w iOS-ie,
więc mam nadzieję, że
to będzie po prostu dostępne dla nas.
Okej, i to jeżeli chodzi o
nowości w iPadzie,
to chyba tyle z takich głównych.
Aktualizacji ciąg dalszy.
Słuchajcie, to jest
naprawdę, to jest audycja na żywo.
Tu się różne rzeczy dzieją.
No właśnie, Maco jest…
W dobrym momencie.
To nie jest przypadek.
Wszystko się wyciszyło oprócz tego.
Instaluje ci się, jak rozumiem,
sekwoja.
Tak, o właśnie, to jest kolejna nazwa.
Tutaj faktycznie Kalifornia
jest znana z tego, że mamy
te wysokie sekwoje, które
sięgają
wieżowców i tutaj
ekipa marketingowa
firmy Apple wyruszyła w drogę
jak to zwykle i właśnie
zainspirowali się tymi sekwojami,
żeby
właśnie tak nazwać system Maco S15.
Sekwoja
swoją drogą po angielsku pisane
sek-u-o-i-a.
Trudne słowa, tutaj też widziałem żarty na Macedonię,
że jest kolejna
nazwa Maco S, która będzie
trudna do napisania, chociaż
Sonoma i Ventura to były takie w miarę normalne.
No ale tutaj znów mamy
coś troszeczkę
trudniejszego. No, łatwe do wymówienia
na szczęście, więc chociaż tyle.
I
zaczynamy od tego, że tutaj wiele rzeczy
jest powielone, czyli funkcje, które mieliśmy
w wiadomościach, te różne reakcje,
formatowanie, efekty tekstu,
to na Macu też jest.
Mamy matematyczne notatki,
więc tutaj też będziemy mogli
wstawiać różne równania i one będą nam się
rozwiązywać.
Coś, o czym w sumie
teraz sobie przypominam, bo to nie było
powiedziane w konferencji, tylko było na stronie
Apple, a myślę, że warto o tym
wspomnieć, nie wiem.
A propos notatek, do notatek też będziemy
mogli wstawiać nagrania głosowe,
które przynajmniej w języku angielskim
będą transkrybowane.
I tutaj jeszcze
zahaczymy z powrotem na iOS-a, bo to też
zostało oddane do iOS-a. Oprócz nagrywania
w notatkach, będziemy też
mogli nagrywać w aplikacji telefonu.
No właśnie. Myślę, że to wiele
osób ucieszy. Tak, tak. To
rzeczywiście, co ważne,
będzie
informacja dla naszego rozmówcy,
że ta rozmowa jest nagrywana.
I gdyby ktoś mnie zapytał, to ja bym
odpowiedział, że to powinno
zostać zrobione już od dawna właśnie
w ten sposób, a nie
sztuczne blokowanie różnych możliwości,
jeżeli chodzi o
nasze urządzenia
i blokowanie
tej możliwości
nagrywania, to tak naprawdę
moim zdaniem w zupełności by
wystarczało, jeżeli ktoś po prostu jest
nagrywany, to powinien najzwyczajniej w świecie
tylko o tym wiedzieć, powinien pojawić się taki
komunikat, że ta rozmowa istotnie
jest rejestrowana
i tyle. I dobrze, że Apple to zrobiło.
Dobrze, że tak to będzie.
No i pozostaje mieć nadzieję, że będzie
można również te rozmowy głosowe,
tak samo jak inne notatki, w miarę łatwo
wyeksportować, na przykład na użytek
jakiś tam swój.
Ja sobie jestem w stanie wyobrazić łatwo, że
dzięki temu
będzie można naprawdę
całkiem fajnie
przeprowadzać sobie rozmowy
i wykorzystywać je chociażby w różnego
rodzaju podcastach później.
Coś, do czego obecnie potrzebuje
trochę sprzętu, żeby sobie
to wszystko nagrać, no to w tym momencie
każdy będzie mógł sobie za pomocą
iPhona po prostu zrealizować.
No właśnie, więc myślę, że to też będzie dostępne
no właśnie, czyli na Macu w aplikacji
notatkach też to będzie
można sobie połączeń telefonicznych
nagrywać, chyba
nie, chociaż mamy aplikację FaceTime,
więc nie wiem, nie widziałem informacji o tym,
że to będzie, to na pewno będzie na iOSie, no
na Macu mamy na to inne rozwiązania,
więc
to tak będzie. Mamy też te funkcje nowe w mapach,
tak jak na iPadzie i na iPhonie,
o których wspominaliśmy, ale teraz nowości.
Tryb Continuity,
czyli to jest zestaw funkcji,
który
jest znany, myślę,
osobom, które korzystają gdzieś z urządzeń
Apple i w to wchodzi wiele rzeczy, to wchodzi
ten uniwersalny schowek, który z reguły
działa, mamy tą funkcję
handoff, która pozwala nam
przeskoczyć z jednego urządzenia na inne, jeśli coś
robimy, to system nam pomoże
naszą pracę
w łatwy sposób przenieść.
Mamy z jakiegoś od iOSa
bodajże 16
udostępnianie kamery i mikrofonu z
iPhona na Macu i to się czasami
naprawdę przydaje, możemy mieć w każdym miejscu
bezprzewodowy i naprawdę dobrej jakości
mikrofon
i dochodzi nam nowa,
mega ciekawa, wydaje mi się, funkcja.
Ja po prostu
trzymam kciuki, żeby ona była dostępna.
Tak, to na pewno też będzie coś, co
będę chciał testować.
iPhone Mirroring,
czyli zdalne sterowanie
iPhona z poziomu
Maca.
Będą działały gesty,
będzie działała klawiatura,
oczywiście będzie przesyłany dźwięk.
Będzie można
nie na początku, ale
po jakimś czasie też będzie można pliki przenosić
między iPhone’em i Maciem.
Ale też,
co ciekawe, będą
od tego czasu, to jest coś, co
użytkownicy Windowsa już mieli od jakiegoś czasu z telefonami
z Androidem, teraz na Macu to też będzie.
Będą pojawiały się nam
w centrum powiadomień Maca
wszystkie powiadomienia z naszego iPhone’a.
I to jest dopiero początek.
Dlatego, że powiedzmy,
przyjdzie nam powiadomienie
z jakiejś aplikacji, która jest tylko
na iPhone’ie. Tutaj był przykład Duolingo,
ale pewnie wiele takich aplikacji znajdziecie,
które nie są na Macu dostępne.
Ale macie powiadomienie,
telefon jest gdzieś w drugim końcu domu,
gdzieś schowany w torbie,
a musimy na jakąś
wiadomość odpowiedzieć. A może po prostu aplikacja
na iPhone’a jest bardziej dostępna niż
aplikacja na Maca, czy strona
internetowa.
No to nie ma problemu,
bo kiedy dotkniemy,
właściwie nacisniemy na takie powiadomienie,
no to system nam automatycznie
połączy się z iPhone’em, otworzy tą aplikację
i zareaguje na to powiadomienie. I my będziemy
mogli sobie po prostu do tej aplikacji
wejść, zrobić to co musimy.
Miejmy nadzieję, że faktycznie tutaj
to będzie dla nas dostępne.
No i będziemy mogli z tym
po prostu działać.
Wysyłać dane, przesyłać między
Maciem a iPhone’em. To będzie
wyświetlane w osobnym oknie, więc będziemy
mogli w każdej chwili z tego okna wyjść.
Ciekawe, czy mikrofon też będzie działał.
Bardzo wcale bym się nie zdziwił,
jeśli tak.
I coś jeszcze
chciałem w tej sprawie powiedzieć. Aha.
I nie musimy się martwić o to, że
ktoś będzie mógł podglądać to, co my akurat robimy,
bo jeśli z tej funkcji korzystamy,
to ekran na iPhone’ie
jest na ten moment po prostu zablokowany.
Dopóki ta zdalna sesja jest aktywna,
no to iPhone nam wyświetla
albo ekran
blokady lub ten ekran
standby. Jeśli mamy jakieś widgety dodane,
to możemy gdzieś się popatrzeć na ten telefon
i on cały czas zachowuje się tak, jak byłby
zablokowany, a my sobie w międzyczasie coś na Macu
na tym telefonie robimy.
Ale tak naprawdę ten ekran
iPhone’a, to nie tylko musimy
wywoływać z poziomu jakiejś konkretnej
aplikacji. Tak naprawdę to
z tego, co zrozumiałem,
to będzie można sobie po prostu otworzyć
naszego iPhone’a jako osobną
aplikację na Macu i
nawet przeglądać sobie ikony na
pulpicie, wybrać jakąś konkretną apkę,
którą sobie chcemy odpalić i już,
i po prostu działać. Także to
naprawdę, no jeżeli
to będzie działało,
jeżeli to będzie dla nas dostępne,
to będzie coś bardzo fajnego,
bo no niejednokrotnie na przykład
nie ma jakiejś aplikacji na Macu,
nie ma jakiejś,
jakiegoś narzędzia, z którego
korzystamy na iPhone’ie, abyśmy chcieli tu
sobie właśnie z poziomu
wygodnej klawiatury naszego komputera
jakoś tam zadziałać,
no a tu się okazuje, że
będzie to możliwe,
pozostaje tylko liczyć na kompatybilność
z voice-overem.
Też coś, jeżeli
chodzi o układanie okien, ma
zostać poprawione, prawda?
Tak, to są chyba takie stricte
rzeczy wizualne, będą jakieś nowe skróty
klawiszowe i polecenia w menu, żeby
łatwo sobie te okna w takiej kafelki ułożyć,
szybko przerzucić okno na lewy,
na prawy, na prawą część ekranu,
są tego typu rzeczy. No myślę, że to jest
może się przydać, jeśli mamy
osób słabowidzących, myślę, że to
może się przydać.
I też coś dla tych, którzy
często konferencje różnego
rodzaju prowadzą,
konferencje zdalne,
ma być kompatybilny z Zoomem
na pewno i z Teamsem też zdaje się.
Jakiś widok
prezentera, w którym będziemy sobie
już od razu mogli zdefiniować, co my tam
chcemy ujawniać,
co chcemy zaprezentować, żeby przypadkiem
jakieś inne rzeczy się nie
pojawiły w kadrze,
ale oprócz tego, że będzie to
dotyczyło naszego
pulpitu, to również
będzie to dotyczyło kamery.
Tak, że będziemy mogli
też w systemie w całym
usuwać
tło, czy zastępować czymś
innym, coś co gdzieś osobno
Teams czy Zoom oferuje,
a teraz to też będzie po prostu dostępne
w całym systemie.
I nowa aplikacja.
Tak, nowa aplikacja,
która w sumie też jest czymś, co jest
dostępne wszędzie, w tym
na Windowsie, co ciekawe,
mianowicie aplikacja hasła.
Będziemy mogli
sobie
wyświetlać
wszystkie hasła,
które mamy w iCloud,
też kody bezpieczeństwa, bo
iCloud jakiegoś razu jest w stanie generować tam
kody dwukrokowego uwierzytelnienia,
to też będzie dostępne. Jakieś informacje,
jakby jakiś wyciek był, to nam się też
wszystko wyświetli.
Będzie to też wspierało oczywiście autouzupełnianie
w całym systemie, też w innych
aplikacjach film trzecich, no i tak jak wspomnieliśmy,
oprócz tego,
że to będzie na Macu, na iPhone
i na iPadzie, ta aplikacja
też będzie dostępna w systemie
Windows, więc jeśli ktoś nawet nie ma Maca,
a chciałby korzystać z pęku kluczy iCloud,
no to oprócz tego, że mamy te rozszerzenia
dla popularnych przeglądalek,
przynajmniej dla Chroma, nie wiem czy dla Firefoxa coś jest,
no to teraz jeśli
zainstalujemy aplikację iCloud
ze sklepu Microsoft,
no to
będzie dostępne,
będzie aplikacja Haskell
też na Windowsie dostępna. I pozostaje
mieć nadzieję, że rzeczywiście będzie dostępna
też z naszego punktu widzenia, bo
z tą dostępnością aplikacji
na Windowsa to różnie
było i różnie bywa,
jeżeli chodzi o Apple’a.
Cóż my tu mamy jeszcze?
No mamy Safari, Safari
najszybsza przeglądarka,
ponoć o 4 godziny
dłużej na baterii działa,
jeżeli chodzi o wyświetlanie
wideo niż Chrome,
taką statystykę w trakcie
tego keynote’a podano.
Tutaj mamy taką ciekawą rzecz,
mianowicie podświetlanie istotnych informacji
na stronach internetowych.
No to też aż się prosi zapytać,
czy będzie to dostępne?
A druga rzecz, czy będzie rozumiało
nasz język? Na podstawie czego
będzie ta informacja
określana jako istotna?
No właśnie, tutaj też na stronie Apple’a
znalazłem informację, że to będzie dostępne
tylko na razie w języku angielskim,
chyba niestety. A szkoda,
bo to będzie jakoś w stanie wyświetlać nam
najbardziej istotne
informacje na stronach.
Tak będzie można poprosić o
ostrzeszczenie też tej strony, ale też
jakieś informacje o, nie wiem,
jakieś adresy będą wyróżniane, tytuły
filmów, jakieś imiona
z znanych osób. Jakoś będzie
można szybko do interesujących
nas informacji dotrzeć. Czy będzie do tego
jakiś osobny widok? Też pytanie
ciekawe.
Czy będzie jakiś
sposób, żeby
żeby jakoś
z voiceover’em można po tych highlights, bo tak to się
nazywa, nawigować? Czy to będzie
jakoś osobny panel? Zobaczymy.
Natomiast tutaj też niestety
coś, co będzie dostępne
tylko w języku angielskim, z tego co
rozumiem. Natomiast to nie jedyna
nowość Safari, bo trochę
tryb czytania został zmodernizowany.
Będzie też oferował nam strzeszenia i spis treści.
Ciekawe jak to
będzie działało i czy to też będzie tylko po
po angielsku. No z drugiej strony mamy
nagłówki, może po nagłówkach, jakby było
w stanie to wygenerować.
Ale oprócz trybu czytania
będzie też tryb wyświetlania,
tryb oglądania właściwie, viewing mode,
co się będzie po angielsku nazywać.
I ja napisałem w notatkach, że to będzie
trochę tak tryb czytania,
ale dla wideo. Ja już tutaj widzę
duży
potencjał w tym, jeśli to będzie
działało na stronach, gdzie mamy jakieś nierozstępne odtwarzacze,
które często gdzieś tam
wewnętrznie są zagnieżdżone w takim standardowym
elemencie videoHTML. Ja jestem bardzo
ciekawy, bo Apple
tutaj informowało, że to też właśnie nam
usunie jakieś nieistotne detale ze
strony, da nam dostęp do systemowych
kontrolek odtwarzania. Jeśli to nam pozwoli
w łatwy sposób uruchomić
sobie odtwarzanie na jakiejś
mało dostępnej stronie, no to ja bym się ucieszył.
No to prawda. To
byłaby bardzo dobra
rzecz.
No i co jeszcze?
Tak naprawdę no to
chyba tylko jeszcze jakieś narzędzia dla developerów,
tak, rozwijane
dla tych wszystkich, którzy programują.
Też jeżeli chodzi o
gry, to tu coś ma
pójść do przodu.
Jest takie narzędzie, to w ogóle też ciekawe,
bo pojawiło się w zeszłym roku. To się nazywa
Game Porting Toolkit. To jest narzędzie,
które, którego
generalnie głównym zadaniem jest
ułatwienie developerom
do portowania swoich gier z Windowsa
na Mac. A to działa w ten sposób, że
na podstawie otwartych
systemów takich jak Wine, ale też
własnego sterownika Apple’a, który
konwertuje polecenia
DirectX, czyli takie Windowsowe API graficzne
na system Metal,
czyli na polskie API graficzne
na uruchomienie gier. I te gry naprawdę działają
bardzo dobrze. To można spokojnie jakieś
najnowsze tytuły, Diablo 4 na przykład spokojnie
tak można odpalić. Naprawdę
nowe gry.
Na początku licencja mówiła, że to
nie miało być dla developerów. Potem licencja
była zmodyfikowana,
a teraz Craig Federig jawnie
powiedział, że entuzjaści też tego
używają, żeby sobie gry odpalać i
oni o tym wiedzą i chyba im to nie przeszkadza
zbytnio, bo więcej Maców może tak sprzedadzą,
bo mają karty graficzne,
które są na tyle mocne.
No i właśnie pojawiła się tego
druga wersja, która po prostu jest
jeszcze bardziej kompatybilna z Windowsem,
co by to miało
nie znaczyć.
No i tutaj też mieliśmy prezentację
nowych gier, które mają się pojawić. Tutaj głównie
chodzi o firmę Ubisoft, która chwaliła
się tym, że nowy Assassin’s Creed,
który pojawi się w listopadzie,
wystartuje równocześnie na Windowsie,
na konsolach, no i właśnie
na Macu i na najnowszych iPadach,
które też mają te same procesory,
co nowe Maci.
No dobrze,
to teraz chyba
to, na co wszyscy czekali
i o czym było bardzo,
bardzo głośno. Chyba, że jeszcze coś
à propos macOSa chcecie dodać?
Chyba nie.
No dobra, to teraz robimy
sobie krótką przerwę na
wiadomości od Maćka,
a za chwilę przechodzimy do
sztucznej inteligencji.
No fajnie generalnie,
co do Watcha,
że w sumie to akurat
jest spoko opcja, że jakby
wywala Ci zegarek to
jakby w statystykach to, co Cię w sumie
najbardziej męczyło, bo w sumie tak
człowiek, znaczy po czym się człowiek
poczuł zmęczony, to się w sumie niby wie,
w osiemdziesięciu paru procentach
ładnych, chociaż nie zawsze
i w sumie warto to
gdzieś tam czasem
no mieć, że tak powiem
uwidocznione,
prawda? Gdzieś tam
uwydatnione, pokazane.
Natomiast tłumacz, no też spoko,
fajnie mieć na nadgarstku w sumie, chyba.
Chociaż rzadko korzystam akurat z tłumacza
aplowego, tak swoją drogą, ale
nie głupie.
Ten, live activities,
tak, live activities to jest
zdecydowanie rzecz
warta uwagi. No i co?
Uber to ma fajnie zrobione rzeczywiście,
ale Free Now to lepiej, żeby tego nie implementował,
bo to ma tak głupio zrobione,
że szkoda gadać. To już Bold
jest lepszy, który tego w sumie nie ma,
tak powiem szczerze. No, ale to też
fajne, bo mi tego brakowało,
nie było póki co na Watchu, na iPhonie,
było na Watchunie. Fajnie, że to
w końcu dodali.
No i chyba odnośnie Watcha, mojego komentarza
to by było na tyle.
A no i funkcja check-in,
jeśli chodzi o Watcha jeszcze,
na iOSie też mamy jako
daj znać. Fajna sprawa,
zdarzyło mi się wykorzystywać
to w sumie i
działa troszeczkę
w sposób podobny do
powiadomień z aplikacji znajdź,
ale tutaj też nie musimy nikogo prosić o
położenie, więc to
jeszcze bardziej sprzyja prywatności.
Fajnie, że w sumie też będzie można z Watcha odpowiadać,
bo rzeczywiście chyba dotychczas nie można było
i to było, no fajnie, fajnie.
Dobrze to jest.
Co do
iPhone mirroringu na Macu,
to bardzo, bardzo to
mnie ucieszyło, że będzie rzeczywiście.
No właśnie, problem
aplikacji, których nie ma,
to też o czymś tam wspominałem, no oczywiście
Facease’a będziemy mogli przeglądać na
z poziomu Maca, tak naprawdę mając
iPhone’a gdzieś tam w pobliżu,
więc
to też jest bardzo fajne, nie wiem,
Allegro, jakieś Santander’y
inne, których nie ma
i robić przelewy i zakupy, no nie, naprawdę
mi się to bardzo podoba, zwłaszcza, że audio
z
iPhone’a ma być
też na Macu
i skoro tak,
no to zakładam, że voiceover z tego iPhone’a
też będzie stricte na Macu
i to chyba
zdaje się mówić, no nie, że jak ten iPhone w ogóle
sobie będzie gdzieś tam daleko leżał, w drugim pokoju
i tak dalej, a
będzie połączenie z siecią Wi-Fi, nie?
Zdaje się? Czy nie? Chyba tak,
w każdym razie, z docka normalnie
to chyba będzie można otworzyć, po prostu
w docku pojawi nam się
ikonka symbolizując
iPhone’a i będzie to można otworzyć,
fajna sprawa.
Okej,
to tyle, jeżeli chodzi
o wiadomości od Maczka,
no to słuchajcie,
to co, to przechodzimy do
tej sztucznej inteligencji,
która
i wokół której było naprawdę
dużo różnych
plotek, pogłosek,
no i w końcu już
coś wiemy, przede wszystkim,
że się to nazywa
Apple Intelligence. Tak jest,
i to było bardzo podkreślone w taki fajny
sposób właśnie przez Grega Federighi,
że właśnie Apple Intelligence
i to A,
które oznacza coś zupełnie innego,
bo ewidentnie tak zaznaczone.
Tak, inteligencja, która
rozumie ciebie.
Tak, bo problem
zdaniem Apple z obecną
sztuczną inteligencją,
czyli z tymi modelami językowymi
jest taki, że one nie są spersonalizowane
pod nasze dane, pod nasze
nawyki i potrzeby, tylko
czerpią wiedzę, czy informacje
ze źródeł zewnętrznych, a tutaj
Apple stawia na to, żeby to AI też
było, tak jak wspomniałeś,
dostosowane pod nas.
No więc, jak to
właściwie ma działać? To się przede wszystkim
ma składać z modeli,
które będą działać lokalnie
i w związku z tym, co
już gdzieś między wierszami mówiliśmy,
no niestety, jeżeli
ktoś liczył, że nagle,
w tym momencie, skoro czat GPT
mówi do nas po polsku,
jest taki fajny, to, że
to, co oferuje Apple, to już też od razu
będzie mówiło do nas po polsku,
no to niestety się rozczaruje,
ale spokojnie, słuchajcie,
pocieszymy was, nie tylko my
się rozczarujemy, rozczarują się
tak naprawdę wszyscy ci, którzy nie posługują
się językiem angielskim, bo
na ten moment, jako pierwsze
ze sztucznej
inteligencji skorzystają
kraje i użytkownicy,
którzy posługują się językiem
angielskim, pozostałe języki,
to znaczy inne języki, w jakichś
tam, w jakimś tam
stopniu, zostaną dodane
w ciągu roku. Jakie
języki? W jakim
stopniu?
I to w ogóle jest jeszcze
bardziej
zrobione
źle, to znaczy,
że tam nawet było nie tyle powiedziane
językiem angielskim, tylko było konkretnie powiedziane
językiem amerykańskim, angielskim,
US English. No to jeszcze
lepiej, czyli
wygląda na to, że tak naprawdę to
przede wszystkim Stany Zjednoczone
skorzystają z tego.
No ale dobrze, to z czego
tak naprawdę będą mogli skorzystać?
Ja tu sobie na przykład wypisałem taką rzecz.
Powiadomienia.
Że ta sztuczna inteligencja będzie w stanie
jakoś zarządzać naszymi
powiadomieniami i w zależności od
tego, co będziemy wykonywać,
to będzie w stanie nas
informować o konkretnych rzeczach.
Czyli na przykład, jeżeli będziemy pracować,
to będziemy
otrzymywać tylko te powiadomienia,
które są związane z naszą pracą.
Już teraz tak naprawdę możemy sobie to
realizować w oparciu
o różnego rodzaju tryby skupienia,
ale to ma jedną podstawową wadę. Te tryby skupienia
trzeba sobie skonfigurować.
I efekt jest taki, że ja mam tak naprawdę
tylko dwa. Nie przeszkadzać i audycja.
I
więcej nic, bo w sumie
nie chciało mi się tego robić. A
prawdopodobnie właśnie za pomocą tej sztucznej
inteligencji będzie można to jakoś
rozwiązać lepiej.
Tak, tam było powiedziane,
że on będzie w stanie nawet nam
na przykład
mamy, tak było napisane, że jest
czat grupowy, który eksploduje. Mamy
50 nieprzeczytanych wiadomości i my akurat coś robimy.
Telefon nam wrzęczy co 20 sekund.
Wyciszamy go, ale
potem wracamy. No i nie chce nam się
tych 50 wiadomości czytać.
Na to system nam będzie w stanie
podsumować to, że
swoi znajomi rozmawiali o tym,
gdzie się spotkać. Zdecydowali, że idą
na przykład do pizze.
Możemy
w ten sposób zdecydować, jak to
będzie wyglądało. No właśnie, będzie
jakieś grupowanie i system będzie w stanie nam ocenić,
jeśli wiadomość, jakieś
powiadomienie nawet jest
priorytetowe
czy nie i w ten sposób to będzie
działało. Co ciekawe też, to ma dotyczyć
aplikacji Poczta, to znaczy
zamiast takiego typowego
podglądu, gdzie są kilka
pierwszych linii, jak jest wyświetlone, czy tutaj
pewnie. Jeśli e-mail się nie wyświetla,
kliknij tutaj, jak najczęściej.
No to system będzie w stanie nam
cały ten e-mail przeanalizować i na przykład
zamiast takiego typowego podglądu,
to nam streści od razu tego maila.
Jeśli coś się pojawiło,
jakieś na przykład spotkanie coś, no to będziemy
takie najbardziej istotne informacje
widzieć nawet bez otwierania
tej wiadomości.
No i
cóż jeszcze będziemy mogli?
Oprócz powiadomień też będzie można sobie
tworzyć obrazki, wklejać je
do wiadomości. I to też
jakoś kontekstowo. Tam był
przykład składania komuś
życzeń urodzinowych. Tak, że
będzie można na przykład jakiś tam
obrazek z tortem
komuś wysłać. Tak, to
obrazek z tortem,
na którym ta osoba, która ma urodziny, jest na środku
tego tortu, albo
składanie życzeń na Dzień Mamy.
Piszemy, mamo jesteś bohaterem i wysyłamy
jej zdjęcie, jak mama stoi sobie
w szatce super bohatera.
Więc to jest tak zwana funkcja Genmoji.
Możemy sobie poprosić systemu
jakieś emotki, po prostu wpisując
prompty. Myślę,
jeśli ktoś korzystał z funkcji opartej
o AI, to będzie wiedział o co chodzi.
Prompty to jedno,
ale też będzie taki cały system tak zwany
Image Playground. To będzie dostępne
jako funkcję, jako API dla deweloperów,
więc to będzie można wywołać z każdego miejsca.
Ale też będzie to jako
dedykowana aplikacja.
Aplikacja po prostu do tworzenia zdjęć
sztuczną inteligencją. Albo będziemy
mogli coś sami napisać, albo będą
różne kategorie, więc będziemy mogli sobie
od czegoś zacząć, wybierając
interesujące nas kategorie,
no i w ten sposób będziemy mogli sobie takie
sztucznie wygenerowane
obrazki tworzyć. Zdania są podzielone,
jeśli chodzi, jeśli
jedni się z tego cieszą,
no inni nie, no tak generalnie
z innymi funkcjami opartymi o
AI.
Natomiast
jeszcze coś, co nam,
w sensie osobom niewidomym, bardziej się przydaje,
kiedy to w końcu trafi do
w językach
innych niż angielski
i amerykański,
to narzędzia
pisania. I to
będą rzeczy
typu
rewrite, czyli system nam
będzie mógł poprawić gramatykę,
czy słownictwo, po prostu
jeśli mamy jakieś rzeczy, no będziemy
mogli sobie pozmieniać. Będzie zmiana tonu,
no jakiś formalny, albo bardziej
luźny. Tak, formalny,
bardziej luźny, bardziej zwięzły, będziemy mogli
poprościć system. Nawet będziemy mogli
poprościć, żeby na wiersz nam przekształcił,
więc jakieś zaproszenie piszemy, no tutaj
takie coś będzie dostępne.
Proofread, czyli no poprawa gramatyki
pisowni, coś jak language tool,
tak myślę. Jeśli to byłoby
dostępne, to bym się ucieszył, no tylko żeby nam
nie halucynowało, bo to byłoby
źle. Natomiast
będziemy mieli takie bardziej zaawansowane
sprawdzanie gramatyki, no niestety na razie
tylko po angielsku. No i
podsumowanie tekstu to też będzie dostępne wszędzie,
więc będziemy mogli sobie, nie wiem, jakąś stronę
jakiś tekst zaznaczyć i system nam
go
po prostu
podsumuje.
Apple bardzo mocno stawia
na prywatność i bardzo
podkreśla, że
nasze dane bez naszej wyraźnej
zgody w żaden sposób nie opuszczą
pamięci naszego telefonu.
Jeżeli zajdzie taka
potrzeba, że jakieś
informacje będą musiały
zostać wysłane do chmury,
to my zostaniemy o tym wyraźnie
poinformowani, tam jakieś zewnętrzne audyty
tych narzędzi,
tej ich chmury obliczeniowej,
która się
jakoś nawet konkretnie
nazywała,
akurat sobie nie zapisałem jak oni
ją nazwali,
natomiast rzeczywiście ma być
to wszystko bardzo transparentne
i mamy doskonale
wiedzieć na co my się zgadzamy
w przypadku jeżeli jakiekolwiek
dane opuszczają nasze urządzenie.
Tak, ta funkcja się nazywa
Private Compute Cloud
chyba i to jest właśnie
no ma być wszystko
bardzo zabezpieczone.
Ten kod jakoś będzie publicznie
dostępny, że eksperci bezpieczeństwa
będą mogli go zaudytować i co ciekawe system
jakoś będzie to sprawdzał, że
wszystko było audytowane
i wszystko co jak
najbardziej możliwie będzie przetwarzane na
urządzeniu ma być przetwarzane na urządzenie
no i tutaj niestety też taka informacja,
te funkcje będą następne
tylko na procesorze A17
Pro i nowszym, więc tutaj iPhone 15
Pro i Pro Max jak naprawdę tylko wchodzi
w grę na ten moment, no i pewnie jakieś
nowsze iPhone’y.
No i wszystkie Mac’i z procesorami
M, M1, M2 itd.
A cała
jeśli coś będzie
zbyt trudne dla modeli lokalnych
no to system inteligentnie będzie w stanie nam
porozumieć się
z serwerem i
jakieś dodatkowe dane
nam
dodać
do tego i po prostu
wysłać te dane
w taki sposób, że Apple nawet nie będzie
w stanie tego odszyfrować, to będzie jakoś od razu
usunięte w jakiś sposób,
żeby gdzieś te dane nie leżały na serwerze
to będzie wszystko zaszyfrowane tak jak wspominałem
żeby nikt
do tego nie miał dostępu
no i to jakoś w ten sposób ma wszystko działać
właśnie w bezpieczny sposób.
No sztuczna inteligencja wkracza też do
Siri. W ramach tej sztucznej inteligencji
Siri oprócz tego, że będzie
wiedzieć sporo na temat nowych
funkcji w systemach Apple
do tego stopnia, że będzie można ją zapytać
tak bardziej opisowo np. jak zrobić
coś w
systemie
czy to macOS czy iOS czy
jakimkolwiek innym to nam podpowie
no to też będzie w stanie integrować się
z czatem GPT
i tutaj rzeczywiście
no będziemy w stanie
skorzystać z pełni możliwości
tego czata GPT
oczywiście no za każdym razem
gdzieś prawdopodobnie pojawi się
taka lub inna informacja, że te dane
są wysyłane
nie będzie konieczności zakładania
żadnych kont
w systemie OpenAI
nie będziemy musieli tego robić
ale jeżeli już np.
jesteśmy użytkownikami płatnej wersji
czata GPT
to będziemy mogli w ramach
korzystania z Siri
skorzystać również z tych
płatnych funkcji
czata GPT czyli
być może np. większej ilości zapytań
albo jakichś kolejnych
możliwości, które OpenAI
w najbliższym czasie będzie
wdrażać. Co będzie na początku
bo to zostało podzielone na to co będzie od razu
a co będzie później w tym roku
będzie nowy wygląd tej Siri
będzie można w każdej chwili o Siri napisać
to wcześniej było głupio zrobione
bo generalnie
do Siri mówimy natomiast mogliśmy
w ustawieniu dostępności włączyć Pisz do Siri
i jeśli to włączyliśmy no to mówić już się nie dało
a mi się też zdarzały sytuacje
że chciałbym coś szybko napisać do Siri
no nie dało się
konwersje walut np. takie rzeczy
do których Siri to nawet się nadaje
a teraz będzie można płynnie sobie
między tymi dwoma trybami się przełączać
już nie będzie to jako funkcja dostępności
będzie rozpoznawanie mowy
lepiej działać, będzie można się zająknąć
tutaj był podany taki przykład
jak jest pogoda
a nie, we Wrocławiu
no i on jest w stanie zrozumieć
Siri, że chodzi nam o Wrocław
czy jakieś inne rzeczy
głosy są bardziej naturalne
to też ludzie na Maserunie zwracają uwagę
zresztą było słychać trochę w próbkach
są jakieś nowe modele tych głosów
na razie tylko w samym Siri, nie w VoiceOverze
to już też zostało rozgryzione
natomiast
będzie zachowywanie
kontekstu rozmowy
czyli pytamy się o pogodę w danym mieście
i Siri nam mówi, że
we Wrocławiu ma padać
nie padać, np. ma być ładnie
no to możemy od razu powiedzieć
no dobrze, to w takim razie dodaj mi
wydarzenie do kalendarza, że
jutro jadę do Wrocławia
na jakąś wycieczkę
no i Siri będzie wiedziała o co chodzi
nie musimy powtarzać się
gdzie chcemy jechać, no bo po prostu
będzie pamiętać
o co się zapytaliśmy
będzie właśnie
ta baza wiedzy
a co będzie później
świadomość tego co jest na ekranie
to jest coś o czym
Apple pisało, że pracuje nad takim modelem
którego głównym zadaniem jest właśnie
identyfikowanie tego co
co jest
na ekranie
więc przykład
jest podany, znajomy nam wysyła
nowy adres swój, bo się przeprowadził
i my po prostu widzimy, mamy otwarte
aplikacje wiadomości, jego nowy adres
jest widoczny na ekranie, wywołujemy Siri
i mówimy jej po prostu
zaktualizuj mi kontakt tej osoby
wpisz ten nowy adres, no i Siri inteligentnie
wie, aha, widzi ten adres
na ekranie, widzi, że ten
adres się zmienił
w porównaniu z tym co mieliśmy
wcześniej i po prostu jest w stanie automatycznie
nam ten adres zaktualizować
może podejmować
czynności
w różnych aplikacjach tutaj możemy bardzo szczegółowe rzeczy
poprosić, na przykład
pani z Apple poprosiła
o zdjęcia pani Stacy
z wycieczki z Nowym Jorku, ale tylko te
w których jest ubrana w płaszczy
no i aplikacja jest w stanie to zrobić
po czym poprosiła
Siri żeby jakiś efekt dodała do tego zdjęcia
żeby to zdjęcie było
jeszcze
ładniejsze i od razu
dodać je, wkleić do notatki
o tej pani, bo tam
po prostu potrzebowała jakoś
tego, więc będziemy mogli poprosić
o jakieś pliki, o
podczas wyszukiwania możemy poprosić
na przykład ktoś nam wysłał jakiś ciekawy podcast
albo jakiś link, wiemy kto, nie wiemy
gdzie, czy to był email, czy to był SMS
czy to było coś innego, możemy poprosić
otwórz mi
ten podcast, który wysłał mi
Michał wczoraj, no i Siri
po prostu przeszuka nam cały system
wszystko co może, gdzie jakieś
linki się pojawiły, no i powinno być
teoretycznie w stanie nam
to wyświetlić
to wszystko będzie oparte
Siri będzie znać nasze
powiązania, zdaje się, że już teraz
można na przykład sobie jakoś tam
członków rodziny, tych najbliższych opisać
ale to chyba też ma być jeszcze
dodatkowo rozszerzone, że będzie
Siri ogarniać tę całą naszą
taką siatkę powiązań
kim jesteśmy, dla kogo
i też tego będzie uczyć się
no prawdopodobnie
z kontekstów
naszej, czy to korespondencji, czy rozmów
na różnego rodzaju komunikatorach
no właśnie
no i deweloperzy będą mogli się z tym
integrować przez tak zwany framework
App Intents, tam będziemy mogli
informować system o różnych akcjach, które
w naszej aplikacji
można wykorzystać, no i to w ten sposób
działać
no i słuchajcie, i pytanie
czy coś jeszcze
tak naprawdę mamy
no możemy przejść do tego, co w międzyczasie
ludzie odkryli
to wiesz co, to zanim przejdziemy do tego
to myślę, że posłuchajmy tych wiadomości
które do nas
spływają, bo troszeczkę
mamy tutaj różnych
informacji, na przykład mamy
taką na razie króciutką wiadomość
na dobry początek od Wojtka
Czołem panowie, mam jeszcze
szybkie pytanie odnośnie iPada i
Safari, czy coś wam się obiło
o uszy, o możliwości
zmiany
lokalizacji paska adresowego
w tym, że Safari
tak jak to od dłuższego czasu
jest na
iPhone’ach
Nie słyszałem nic
To są tak
podejrzewam drobne rzeczy, że
no to nam wszystko
wyjdzie w trakcie gdzieś tam
bo na konferencji jako takiej
no
tej informacji
konkretnie nie było
nie było, a
pasek nawigacyjny, pasek zakładek
który pozwala nam szybciej przechodzić
gdzieś tam po różnych obszarach danej aplikacji
natomiast już ludzie
odkrywają rzeczy, o których nigdzie
nie było podczas konferencji
i tak na przykład
mamy
informację, że aplikacja dyktafon
może nagrywać w stereo, jakby ktoś
chciał, o tyle fajna sprawa, że
aplikacja dyktafon jest w stanie
nagrywać w formacie beztratnym
co może się przydać, no bo takie nagrania
są mniejsze po prostu
i
po prostu dzięki temu
będą mniejsze, a jednocześnie
będą zachowywały maksymalną jakość
więc myślę, że to jak najbardziej
ucieszy
Co się jeszcze zmieniło?
VoiceOver doczekał się samouczka, na to wiele osób
prosiło, TalkBack już miało
samouczek od jakiegoś czasu, VoiceOver też się
samouczka doczekał, można sobie go
wywołać z ustawień VoiceOvera
Ludzie bardzo się cieszą
VoiceOver na iOS-ie, tak? Bo na macOS-ie to
tak, tak, tak, przepraszam, nie doprecyzowałem
masz rację
VoiceOver na
VoiceOver na iOS-ie jak najbardziej, w końcu
doczekał się samouczka
Co jeszcze
mamy? No ludzie cieszą się
nowościami związanymi
z wprowadzeniem Layla, które faktycznie
teraz, po pierwsze można wywołać
z gestem nowym
mamy dźwięki na wszystko
i co ciekawe, można zostać w tym trybie wpisywania
Brailla
przez praktycznie cały czas i Apple dodało jakąś funkcję
która pozwala nam
wykonywać akordy
wejściem Brailla, to jakbyśmy korzystali z monitora
Braillowskiego i tak sobie po telefonie chodzić
wykonywać jakieś różne polecenia
myślę, że to jest coś, co może się przydać, nie wiem, do edycji
tekstu, jakiejś bardziej zaawansowanej
tam będzie można sobie akordy
wykonywać, będzie można też
ustawić system tak, żeby zamiast
klawiatury ekranowej, automatycznie nam się wejście Brailla
włączało, jeśli stukniemy w pole tekstowe
myślę, że to też jak najbardziej
wiele osób ucieszy
nowych głosów, jako takich
nie ma, jakieś stare głosy Siri
powróciły kompaktowo angielskie, jakby ktoś
tutaj wiem, że się osoby cieszyły
jakieś minimalne zmiany w eloquence
można wykorzystać swój głos personalizowany
do voiceovera, więc jakby ktoś
chciał, żeby mu
żeby sam sobie coś czytał
albo jakaś osoba bliska
jeśli ktoś sobie nagrał taki głos, niestety one są
tylko po angielsku i po chińsku
to też była nowość, no to
można, pojawił się
jakiś gest, który można sobie
przypisać do podłączenia
monitorów
Braillowskich, więc
myślę, że to też się przyda, bo czasami ten Braill
lubi się rozłączyć, teraz będzie można sobie jakoś go
w miarę łatwo obudzić
no i tak jak wspominaliśmy, jeśli chodzi
o Maca, no to voiceover na Macu
doczekał się możliwości
spersonalizowania
zmiany wszystkich skrótów klawiszowych, nie tylko
tych dostępnych w
tym tak zwanym keyboard
commanderze, tak jak to było wcześniej, tam pojedyncze
skróty mogli się zmieniać, no teraz możemy
każdy skrót voiceovera sobie
dostosować
No dobrze, to zajrzyjmy
jeszcze do waszych wypowiedzi
bo tu kolejne dwie wiadomości od Maczka
A swoją drogą
powiedzcie mi jeszcze proszę taką rzecz, jeśli chodzi
o te zwykłe menadżery haseł
ogólnie, bo ja szczerze mówiąc
doświadczenia nie mam,
ja mam doświadczenie tylko z Apple Keychainem,
z pękiem kluczy i jest mi z tym dobrze
natomiast tutaj
kwestia jest taka, że
mamy hasła, mamy kody jednorazowe
uwierzytelniające
no i w sumie
to tyle, no oczywiście możemy
sobie, nie wiem, notatki robić do tych
haseł i tam sobie wpisywać
co bądź, ale na przykład jak jest one password
powiedzmy czy Bitwarden, nie wiem
czy Bitwarden też to ma
że można sobie, nie wiem,
numery licencji na przykład zapisywać do
produktów i tak dalej, gdzieś tam
tego typu rzeczy
jakieś numery dokumentów, tożsamości
czy to też się opiera stricte o notatki
jako takie, które sobie robimy
czy to są rzeczywiście integralne,
dedykowane temu pola
i to jakkolwiek można sobie wypełniać
bo szczerze mówiąc
no
fajnie by było
gdyby można było coś takiego robić, nie? Podaj klucz
produktu, coś tam, bach, działa
to tak samo jak wypełnianie spęku kluczy
nie? To by też nie było głupie wcale
tylko pytanie jak to jest w tych hasełach, w menedżerach haseł
tych, które powiedzmy
ogólnie znamy, nie? One password
i tak dalej
No i dobrze Piotrek, że mówi, że
Apple Watch 5
już nie dostanie, bo ja tego nie sprawdzałem
jakoś tak wnikliwie
fajnie, że odpowiedziałeś, nie dostaję już tej aktualizacji
Watch OS, a więc trzeba będzie
namówić swoją mamuśkę do
zmian na lepsze
he he, na jakieś lepsze
chociaż ja wiem, czy to aż tak coś wnosi
ten Watch OS w sumie dla niej
no się zobaczy, ale warto w każdym razie
wiedzieć, dzięki
No i to chyba rzeczywiście tyle wiadomości ode mnie
dzięki generalnie za to, że ta audycja
się w ogóle odbyła, że
mogliśmy sobie o tym podyskutować i posłuchać
i pogadać, powymieniać się różnymi
myślami, spostrzeżeniami i tak dalej
No, dzięki wielkie
No okej, więc jak rozumiem
więcej
żadnych informacji
tu nie mamy, nic się
nie wydarzyło
No to tak
podsumowując, ja mam takie
wrażenie, nie wiem jak wy, że
z tych rzeczy takich naprawdę
wow, to
no ja bym wymienił dwie
dla mnie dwie
możliwość nagrywania rozmów
co naprawdę, jeżeli to będzie działać
tak jak ja sobie myślę, że to będzie
działać, czyli że po prostu możemy
wcisnąć jeden przycisk i nam się nagrywa
no to
że to jest rzeczywiście coś
natomiast
dodatkowa rzecz, no ten
mirroring iPhona
ale
ja tak sobie myślę, że
kolejne rzeczy, które nam
wyjdą, to wyjdą tak naprawdę dopiero
w trakcie, kiedy będziemy to odkrywać
bo te pozostałe nowości
które się
pojawiły na dzisiejszym keynote’cie
to tak
no dla mnie nie okazały się żadną
rewolucją. No ja bym tu jeszcze
wymienił zdalne sterowanie
czyimś iPhone’em
Tak, jeśli to będzie dostępne to
to tak, co dla mnie
no zobaczymy co
będzie dostępne później, no na pewno
myślę, że wiele osób ucieszą te zmiany
z wejściem ekranu Brailla, bo
to będzie nam pozwalało
korzystać z tego bardziej jak z takiej
klawiatury na Androidzie przepuszczam
więc myślę, że jakiś potencjał
w tym
jest, no dla mnie to
gdzieś to
ten mirroring iPhona na Maca
jestem bardzo ciekawy czy to dla nas będzie dostępne
bo to mi się chyba czasami przyda
No i zobaczymy co jeszcze
będzie się pojawiało, zobaczymy jak z tymi funkcjami
AI, szkoda, że to nie będzie dostępne
po polsku, no ja trochę pracuję z treściami
po angielsku, więc pewnie będę to jakoś
testował, zobaczymy jak jest
dostępnością tych rzeczy. Człowiek miał
nadzieję, ale jednak takie rozczarowanie
pozostaje. Tak
Ale ja myślę, że to
wiele osób, które
tak naprawdę liczyło na to, że okej
my mamy Siri, to u nas jednak
to AI będzie
to z innych państw
posługujących się innymi
językami niż tylko angielskim
i to w
dodatku amerykańskim, to też czuję
rozczarowanie, że kurcze trzeba będzie tyle
na to czekać, a to może
takie fajne być. Można zmienić język iPhone’a i
Siri na US English, tak czytałem
natomiast ja rozumiem czemu
to Apple zrobiło, bo pewnie te modele, które
są na urządzeniu są jako tak zwane destylowane
więc niepotrzebne w cudzysłowiu, dane są
gdzieś wywalane, no wiadomo
na jakich rynkach Apple’owi zależy
najbardziej, Stany, pewnie później gdzieś na drugim
miejscu Chiny chyba, więc
rozumiem dlaczego poszli
w tą stronę, wiadomo, że
te modele językowe, zwłaszcza
te mniejsze mają tendencję
do halucynacji, zwłaszcza w innych językach
takich mniej popularnych, no mimo wszystko
polski jest pewnie gdzieś mniej popularny
więc myślę, że to jest
dziś przyczyną, Apple się tego obawia, oni
zanim coś wypuszczą, tak jak rozmawialiśmy
o 10 razy to muszą sprawdzić, tak
więc no
może za jakiś czas to się pojawi, kiedy?
Nie wiem.
Zobaczymy. A tymczasem mamy jeszcze
telefon, Maciek się do nas nagrywał, ale
stwierdził, że a co tam zadzwonię sobie
jeszcze na koniec. Cześć, Maćku.
Tak, bo jeszcze kwestia z tego
słuchajcie, a propos rozczarowań
AI’em i niedostępnością
no bo nie wiem, czy o tym
w sumie mówiliście, to mnie akurat gdzieś tam chyba umknął,
ale chyba nie, nie dość, że
prawda, English US
wyłącznie, no to co?
Jeśli chodzi o iPhone’y, no to
tylko iPhone’y 15 Pro
i Max, Pro Max
z procesorem
Apple A17 Bionic
no a zwykła piętnastki, piętnastki
plus, to sorry, winę tu, ale tam już
macie szesnastki, a szesnastki
więc nie,
czyli wychodzi na to, że właśnie iPhone’y
15 Pro i 15 Pro Max plus i pewnie
szesnastki, które no to już
pewnie rzeczywiście Apple
zaimplementuje
A17 w iPhone’ie 16,
no bo skoro wielkie jest
no to myślę, że tak,
no to
tylko właśnie
jak to GPG mi nawet dzisiaj
fajnie to skomentowało, bo zresztą
no to tak jest, że no to
żeby zachęcić cię do zakupu nowych urządzeń,
to jest jedno, prawda, i że dodajesz tylko
do tych swoich najnowszych produktów,
tego typu rzeczy, więc no tak to w sumie
jest, nie, z tym.
No, dokładnie.
Więc zanim to się upowszechni w sumie,
tak na dobrą sprawę, to
ja rozumiem, dopracowywanie,
prawda, żeby to nie halucynowało
i tak, ale zanim to się upowszechni,
to naprawdę, no bo umówmy się, no kto teraz
po pierwsze
iPhone’a będzie zmieniał, w sumie
zwłaszcza jak na przykład kupiły niedawno 14
coś,
a po drugie właśnie, no inne języki, nie,
więc to
na razie jest takie, fajnie, że się coś zadziało,
że to jest, ale no,
dobrze, że chociaż to wejście ekranu Braila i tak mu
tyle tych funkcji przybyło, nie,
gdzieś tam te, no. Tak, to prawda,
to jest coś, co widzę, że już tu
na Mastodonie ludzie też się tym
ekscytują, też sobie rzeczywiście
przeglądam informacje i to jest
taka kwestia, która no,
nie została oczywiście ujawniona na
Keynote’cie
WWDC, dlatego tak pytałem
a propos tych rzeczy, które
zostały ujawnione
na Keynote’cie, ale rzeczywiście
z tych spoza, które gdzieś tam zaczynają
docierać, no to to wejście ekranu Braila
to naprawdę, no fajnie, że zostało
sporo zrobione
na korzyść,
żebyśmy mogli
sprawnie pisać
nawet i dłuższe teksty.
Ja tak zastanawiam w takim układzie, czy
rzeczywiście ryzykować sobie,
nie było na razie jakichś
większych afer z, powiedzmy
nawet z poporu w godzinach?
Na razie nie, natomiast
nie zapominajmy, że te bety są dostępne
o dwóch godzin niecałych. No tak,
no tak, no dokładnie.
A nic, pewnie będę czekał do kolejnej
bety rzeczywiście, żeby sobie
tutaj czegoś nie narobić.
Tak drogą informacji,
deweloperskie bety pojawiły się
już dzisiaj, jak ktoś bardzo chce, można teraz
za darmo do tego programu dołączyć, jak ktoś
poszuka w internecie, stąd do tego instrukcji
to nie jest skomplikowane. Publiczne
bety, czyli takie bety, które już troszeczkę
bardziej gdzieś będą przetestowane,
natomiast oczywiście tam też mimo wszystko
mogą się różne rzeczy dziać.
Już parę lat testuję
bety i różne rzeczy już widziałem przez
te parę lat. Publiczne bety
rozpoczną się w lipcu.
Dokładnie, no trzecia
deweloperska swego czasu, która była,
a wtedy zdaje się wyszła pierwsza publiczna,
to jeszcze miała fajny błąd, że
mi AirTaga nie chciało w ogóle
naprowadzać mnie, VoiceOver
w ogóle nic nie mówił, a ja sobie chciałem z pociągu,
prawda, w pociągu wyjść z toalety
do plecaka, prawda,
do swojego przedziału, więc no, trzeba
się liczyć z różnymi takimi rzeczami.
To prawda, dlatego
my zawsze podkreślamy,
nie instalujcie, jeżeli
to jest wasze jedyne urządzenie,
jeżeli na nim polegacie,
bo po prostu, no potem
dużo
można sobie narobić
niefajnych rzeczy. No no, bo jak się faktycznie
dopiero we wakacje zainstaluje, jak już będę
wiedział, że już studia
rok szczęśliwie zaliczony, dopiero wtedy
mogę się bawić, nie? No, teraz
sprawdź, broń Boże.
Dokładnie, dokładnie, także zalecamy
ostrożność. A jeśli już tak, to kopię
zapasowe. Oczywiście. Czy to
iPhone’a czy Maca robimy. Wszystkiego.
Tak. Czuć też na Macu
osobna partycja i wtedy.
Tak, dokładnie. Można się bawić, nie?
No, dzięki wielkie jeszcze raz
za audycję. Dzięki Maćku, dobrej
nocy w takim razie. Dzięki, do usłyszenia.
Pa, pa. Cześć, cześć. No i cóż
moi drodzy, będziemy kończyć
to nasze dzisiejsze spotkanie.
Miejmy nadzieję, że o wszystkim powiedzieliśmy,
ale na pewno nie powiedzieliśmy o
wszystkim, co Apple dla nas
przygotowało, bo to
wszystko będziemy odkrywać przez najbliższe
tygodnie, jak nie miesiące,
no i pewnie co, wrzesień
wielka instalacja, bo to
zwykle właśnie we wrześniu mamy
wersję publicznie
dostępną. No, niektórzy nawet później,
bo jest wiele osób
zapobiegawczych, które wolą odczekać nawet
i do osiemnaście jeden, dwa i trzy,
aż też pewne
bolączki wieku, już nie wiem, czy
dziecięcego, ale takiego,
no, dziecięcego wersji stabilnych
zostaną wyeliminowane, także…
To się nie ma… No, ale nie.
To się nie ma co spieszyć. Na pewno czeka nas ekscytujące
lato. Oczywiście. I na pewno
będziemy niejednokrotnie w Tyflo
przeglądach do tego tematu wracać,
coś czuję, że już w następnym
Tyflo przeglądzie, który teraz w środę,
już coś tam, będziemy
mieli jakieś kolejne nowości,
bo teraz to wszyscy, którzy
jakkolwiek interesują się
technologią i urządzeniami
Apple, będą to
eksplorować, sprawdzać, co tam nowego,
co tam ciekawego, co interesującego
dla nas przygotowano.
O
tegorocznych nowościach w systemie iOS,
macOS, watchOS
i innych
dziś sobie rozmawialiśmy.
Rozmawiałem wspólnie
z Pawłem Masarczykiem i
Piotrem Machaczem. Dziękuję wam
bardzo.
Do usłyszenia.
Ja również dziękuję za uwagę.
Michał Dziwisz, kłaniam się. No, my słyszymy się
na antenie Tyflo Radia już jutro.
Dziękujemy.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych