Nowości Apple – Czerwiec 2025 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast.
Osiem minut, chyba jeszcze osiem minut, mam taką nadzieję.
Już dziewięć, dziewięć minut po godzinie dziewiętnastej,
a więc pora zacząć kolejny Tyflo Podcast.
Piątek trzynastego, słuchajcie, także to gdyby jakieś
chokliki się pojawiły, no to wiemy na co, na kogo zwalić.
W sumie dzisiaj audycję mógłbym rozpocząć
z słynnymi słowami good morning, thank you all for coming.
W taki bardzo charakterystyczny sposób wypowiedziany,
chociaż u nas akurat te słowa, które mogliście też usłyszeć
w sumie po godzinie dziewiętnastej, no to bardziej chyba
good evening by pasowało, no bo u nas jednak wtedy był wieczór.
Ale dla tych, którzy w poniedziałek odpowiednio nastroili
swojego iPhona, iPada, Maca, czy nawet po prostu
przeglądankę internetową albo odtwarzacz, no to mogliście
mieć okazję posłuchać konferencję, a właściwie
to główny tak zwany keynote, główne wydarzenie
jest podczas Worldwide Developer Conference,
czyli corocznej konferencji firmy Apple, w której są pokazywane
wszystkie nowe funkcje, które mają pojawić się
we wszystkich systemach operacyjnych.
I od jakiegoś czasu w Teflopodcastie mówimy o tych konferencjach,
co na nich było przedstawione.
Po raz pierwszy ten podcast pojawi się kilka dni później,
ale to ma swoje plusy, bo dzięki temu będziemy mieć
dla was trochę więcej informacji niż zwykle,
bo z reguły komentujemy to bardzo na gorąco,
no tym razem mieliśmy trochę więcej czasu, żeby
więcej informacji pozbierać, ludzie już zaczęli
gdzieś te systemy testować i kilka innych smaczków
dzięki temu wypłynęło.
I właśnie o tym wszystkim będziemy dzisiaj mówić.
Z tej strony Piotr Machacz, jeszcze raz wam wszystkich witam
i ze mną mamy gości.
Mamy gości dwóch, jest ze mną Paweł Masarczyk,
którego możecie pamiętać z poprzednich audycji o WDC.
Witajcie, ja tylko chciałem na początku zaznaczyć,
że ja tutaj jestem dzisiaj tylko po to, żeby wam powiedzieć,
że w iOSie 26 można importować dzwonki
za pomocą ekranu udostępniania.
Dziękuję, to jest wszystko, co miałem do powiedzenia
do usłyszenia w następnej audycji.
Wiadomość dnia, słuchajcie.
Tak, dzisiaj rano się o tym dowiedzieliśmy.
I jest jeszcze z nami Maciek Walczak,
który bardzo często do Tyflo Przeglądów dzwoni
i dzieli się różnymi nowinkami.
Też swojego czasu wiem, że stworzyłeś parę podcastów
o betach systemów Apple, czy już w wersjach stabilnych,
jak one się pojawiły, teraz nie pamiętam,
ale wiem, że też te nowe funkcje omawiałeś.
Więc stwierdziliśmy, że tutaj też po prostu trochę z nami
o tych systemach porozmawiasz.
Jak najbardziej, cześć, witam wszystkich.
To ten, co jak zwykle w Tyflo Przeglądach ma gadane,
jak się dzwoni, to końca nie słychać.
I owszem, jeśli chodzi o podcasty,
to zarówno o wersjach stabilnych coś tam poopowiadałem,
jeśli chodzi o aplikacje, jak się one zachowują
i w betach również.
No i oczywiście jest z nami Tomek Bilecki,
który tutaj wszystko realizuje i dzięki niemu też
wy możecie z nami się kontaktować.
Będziemy was słyszeć i wy słyszycie nas.
Tradycyjnie, jeśli chodzi o formy kontaktowe,
no to możecie do nas pisać na stronie
kontakt.tyflopodcast.net lub na YouTubie.
Facebook niestety odmówił posłuszeństwa,
więc na Facebooku nas tym razem niestety nie ma.
Więc jeśli ktoś z waszych znajomych słucha nas tylko na Facebooku,
to możecie dać im znać, żeby po prostu zmienili kanał
albo na YouTubie, albo po prostu przez radio
.tyflopodcast.net przez radio możecie nas słuchać.
No i oczywiście jest do dyspozycji numer telefonu.
Przynajmniej poprzez WhatsAppa możecie albo na WhatsAppie do nas dzwonić
lub nagrywać wiadomości 663-883-600.
Po ten numer możecie nam tradycyjnie wiadomości wysyłać.
Jeśli macie jakieś spostrzeżenia dotyczące tej konferencji,
może już coś sprawdzacie, chcecie się uwagami podzielić.
Oczywiście zastrzegając, to pewnie będziemy mówić wiele razy,
że te systemy naprawdę są we wczesnej fazie rozwoju
i jeszcze wiele przez te nadchodzące 3-4 miesiące może się zmienić,
więc generalnie możecie się z nami kontaktować.
A jeśli chodzi o ten podcast…
Tak, tylko jeżeli chodzi o numer telefonu, no to WhatsApp,
dlatego że nie mam tej konkretnej karty tutaj przy sobie.
Tym dysponuje Michał i na razie tego się zrobić zdalnie nie da.
Tak, dlatego podkreśliłem, że to musi być właśnie WhatsApp.
A jeśli chodzi o te wszystkie nowości, o których będziemy dzisiaj mówić,
to nie będziemy tych funkcji omawiać bardzo szczegółowo,
chociaż pewnie do mówienia i tak będzie dużo,
bo funkcji jak zwykle jest całkiem sporo.
Natomiast tak jak mówiłem, to się wszystko jeszcze może 10-20 razy zmienić,
czy coś działa dobrze, czy źle, no to o takich rzeczach po prostu mówić nie będziemy,
bo skupimy się na tym, co jest,
a na szczegółowe omawianie i pokazywanie tych funkcji
o to czas jeszcze przyjdzie pewnie bliżej września, kiedy te systemy zaczną się pojawiać,
no to wtedy na pewno na stronie Tyflo Podcastu
pierwsze podcasty, które będą o tych systemach mówić szczegółowo,
o tych nowych wersjach tych systemów się pojawią.
Ja jeszcze chciałem dodać,
ja jeszcze tylko chciałem dodać a propos strony Tyflo Podcastu,
bo chyba o tym nie było wspomniane, że kontakt.tyflopodcast.net już działa,
jest uruchomiony panel kontaktowy, właśnie sprawdziłem,
także też i tam możecie do nas pisać.
Super, właśnie mówiłem, że strona jest, więc dobrze wiedzieć, że faktycznie działa.
No to co, a propos wersji, ja myślę, że od tego warto zacząć,
bo może was trochę rozczaruję, bo nie będziemy mówić o iOS-ie 19,
ani o macOS-ie 16, ani o watchOS-ie 12,
jakbyście tego mogli się spodziewać.
A to dlatego, że Apple po prostu postanowiło te numerki trochę pozmieniać.
Bo mamy teraz systemy w wersji 26.
Zostało to wszystko ujednolicone, wszystkie nowe systemy mają ten sam numerek
nawiązujący do roku.
Zdania są trochę podzielone, czy lepiej byłoby zrobić rok 25, a nie 26,
ale producenci samochodów np. tak samo robią, że wypuszczają samochody na rok następny.
Tak też w modelach mamy cyferkę wyżej,
więc tutaj Apple też na podobną decyzję postanowił się zdecydować.
Pokazując, jak duży będzie to przeskok, przynajmniej według Apple,
to trochę funkcji zostało zaprezentowane.
Ale zanim o takiej największej zmianie,
to konferencja zaczęła się od omówienia wątku Apple Intelligence.
Wszyscy wiemy, jaka jest Siri, jaki jest asystent Siri.
Taki sobie.
Myślę, że tak to można podsumować,
zwłaszcza porównując go np. do Gemini, o którym mówimy dosyć często,
czy np. do czata GPT.
Jednak Siri potrafi mniej, mówi w mniejszej ilości językach.
Niestety to też będzie taki młody przewodnik,
jeśli chodzi o to, jakie funkcje pojawią się w Polsce.
Natomiast dużo ludzi oczekiwało,
że może w końcu pojawią się te zmiany związane z Siri,
o których mówiliśmy w zeszłym roku, też przy okazji podcastu o WWDC.
No, jeszcze nie, słuchajcie.
To się pojawi prawdopodobnie na przełomie wiosny przyszłego roku,
gdzieś w wersji .4 systemu.
Natomiast właśnie od tego Tim Cook zaczął,
że nie zapomniał o Apple Intelligence.
Apple Intelligence jak najbardziej się rozwija
i wiele nowych funkcji, o których powiedzą w tej konferencji,
będzie miało właśnie jakiś szczypty Apple Intelligence tu i tam.
I zresztą jak sami zobaczycie, jak będziemy te funkcje omawiać,
to faktycznie tak było.
I to był początek konferencji.
Wszyscy na to czekali, co będzie powiedziane.
I żeby troszkę może tłumy uspokoić,
to właśnie taka informacja padła.
A potem przeszliśmy do konkretów.
Tak jak mówiłem, 26. wersje systemów.
I pierwszą taką dużą zmianą jest coś,
co może niektóre osoby faktycznie trochę zaniepokoi.
Zwłaszcza jeśli osoby zarówno niewidome,
jak i może nawet bardziej słabowidzące.
To bardzo duża przebudowa wyglądu całego systemu.
Taka pierwsza duża zmiana od iOS 7.
Pamiętacie, iOS 7 to był pierwszy taki duży redesign iOSa.
No i Apple znów zdecydowało się na coś podobnego.
Wszystko to jest oparte o nowy materiał.
To się nazywa Liquid Glass.
I to jest, no to faktycznie dawało wyglądać jak takie ciekłe szkło.
To jest takie trochę płynne.
Jest więcej animacji.
Ten tekst jest bardziej przeźroczysty,
co może mieć wpływ na czytelność tekstu, na kontrast.
Na to bardzo dużo osób zwracało uwagę.
Nie wiem, czy na przykład ktoś z was rozmawiał z osobami słabowidzącymi.
Może Paweł, ty miałeś pracodzistyczność może z jakimiś opiniami.
No nie, niestety u nas jest bardzo mało użytkowników w ogóle iPhona takiego.
A żeby jeszcze ktoś testował bety, to w ogóle może bardziej kwestia jakichś screenshotów.
Ale temat się jeszcze nie pojawił.
No ja temat bardziej znam właśnie z Mastodona.
Tylko w dużej części mam wrażenie, że to są jednak osoby,
które same nie są dotknięte problemem,
a są dość mocno zmartwione w imieniu swoich jakichś, powiedzmy, znajomych
czy osób bliskich, które mogą mieć z tym problem.
Natomiast od razu pojawił się też argument, że ma na to pomóc mnóstwo ustawień dostępności,
które są gdzieś tam w systemie obecne, żeby te kontrasty bardziej tam dostosować
i te animacje gdzieś tam zredukować.
Także nie wiem ostatecznie jaki jest werdykt.
Czy ktoś słabowidzący już…
Znaczy pewnie już tak, ale ja nie dotarłem do jakiejś takiej definitywnej opinii,
jak to teraz się prezentuje niestety.
Ale wiem, że poruszenie było dość duże.
To był jeden z głównych wątków właśnie w dyskusji,
że Apple nie bardzo się postarała, jak chodzi o komfort osób słabowidzących.
Do mnie generalnie dotarły, powiedzmy, część półprywatnie,
bo na jednej z WhatsAppowych grup opinie właśnie, że jedna z osób
nie mogła sobie komfortowo choćby nawet skorzystać z centrum sterowania,
dlatego że to jest tak do tego stopnia przeźroczyste po prostu,
że nie była sobie w stanie klikać odpowiednio w ikonki,
które ją interesowały. Po prostu nie mogła przeczytać,
nie mogła ich znaleźć.
Jak też dotarły do mnie informacje, to podobno na AppleWiz
też jest gdzieś tam krytyka odnośnie do tej zmiany.
Jakoby nawet Apple troszeczkę naruszyło WCAG,
jeśli chodzi o te kontrasty, o przeźroczystości itd.
i użytkownicy też wyrażają nadzieję, że jednak aż w takim stopniu
nie trafi to do finalnej wersji, jak to ma miejsce teraz
w tej pierwszej becie deweloperskiej.
Problem jest dosyć poważny.
To ja znów spotkałem się z opiniami,
taką najbardziej bezpośrednią opinią osoby słabowidzącej
to chyba był podcast DoubleTap, gdzie też było o WWDC omawiane.
I tam panowie z DoubleTap prowadzący są osobami zupełnie niewidomymi,
ale zaprosili dwie słabowidzące panie do siebie.
Zaprosili Shelley Brisbane, która jak najbardziej zna się na dostępności,
napisała wiele książek zresztą o tym, jak używać iOS-a
z perspektywy osoby słabowidzącej i niewidomej.
Oraz jeszcze jedną panią, teraz nie przypomnę sobie jej nazwiska,
ale to jest też generalnie ktoś, kto pracuje w sferze dostępności
w jakimś stopniu.
No i one też właśnie zwróciły uwagę na tą przeźroczystość.
Nie tylko one zresztą, bo tak jak mówił Paweł,
to właśnie na masę dla niewielu deweloperów aplikacji iOS-owych
i nie tylko użytkowników zwracało na to uwagę,
że ten tekst jest trudniejszy do przeczytania.
Natomiast to, co powiedziała Shelley i to zresztą, co powiedziały też
gdzieś inne osoby, to co gdzieś Apple sam opisze,
bo to też mamy opcję dostępności w pewnym sensie.
Możemy tę przeźroczystość zredukować.
Tutaj głównym problemem dla tych, którzy sobie to nie mogą wyobrazić,
jest to, że jeśli mamy przyciski, to generalnie to wyglądało wcześniej tak,
że te przyciski były wypełnione jakimś tłem,
no i na tym tle był jakiś napis.
I to dzięki temu się dotyczyło odpowiedniego koloru i tekstu tego przycisku.
To było bardziej czytelne. A teraz tego tła jakby nie ma,
więc przycisk jest, ja to tak przynajmniej rozumiem, pusty w środku
w pewnym sensie, że widać to, co jest pod ekranem,
a generalnie motyw przewodni tego nowego designu jest taki,
że wszystkie kontrolki pływają i tam widać inne rzeczy pod spodem,
czyli w przypadach centrum sterowania tutaj strzelam,
że pod centrum sterowania, nie wiem, widać ikonki i otwartą aplikację.
No to przez to to jest po prostu trudniejsze do przeczytania.
Ale właśnie, osoby widzące też mają z tym problemy
i mówi się generalnie, że pewnie przez następne kilka wersji beta,
tak jak wspominałem, to dopiero mamy wersję pierwszą,
to te efekty będą trochę stonowane i finalnie pewnie ten interfejs
będzie miał dużo wyższy kontrast.
Dlatego też tak ważne jest to, tak jak mówiłem,
jeśli ktoś by chciał tę wersję testować,
bo generalnie teraz jest łatwiej,
bo już nie musimy mieć płatnego konta developerskiego,
trzeba i tak mieć założony profil developerski,
ale teraz to można za darmo zrobić,
no to mogą być różne błędy,
albo funkcjonalne, faktycznie coś nie działa,
albo właśnie w takich kwestiach,
chyba że ktoś faktycznie chce ewentualnie zgłaszać w firmie Apple,
bo właściwie to jest jedyny powód, dlaczego ktoś by chciał
ewentualnie taką wersję beta instalować,
właśnie zgłaszać jakieś nieczytelne elementy interfejsu
właśnie z takiej perspektywy,
bo to jest wtedy bardziej prawdopodobne, że coś zostanie naprawione.
Ale dużo osób na to zwraca uwagę
i pewnie problem jeszcze będzie rozwiązywany.
Natomiast z perspektywy osoby niewidomej,
to tutaj też jest kilka takich zmian,
o których warto wiedzieć, jeśli chodzi o to,
jak te aplikacje będą wyglądały.
Generalnie jakoś bardzo dużo to ten design się nie zmienił.
To nie jest tak, że będziecie musieli wszystkiego szukać od nowa,
tak że spokojnie.
Natomiast zmieniły się trochę rozmiary tych przycisków na przykład
i w niektórych miejscach ich pozycje.
Jeśli chodzi o rozmiary, no to motyw przewodni tego nowego designu
jest taki właśnie, że wszystko tak pływa nad treścią
i jest więcej pustego miejsca.
W praktyce oznacza to dla nas na przykład to,
że jeśli w jakiejś aplikacji mamy pasek kart,
no nie wiem, w aplikacji telefon na przykład,
i zawsze to było tak, że te karty były
od samego lewego brzegu ekranu do samego prawego,
to teraz z voice-overem, jak będziemy szukać palcem
do eksploracji tych zakładek,
to możemy zauważyć, że one cały czas tam są,
ale są na przykład milimetr przesunięte w prawo i w lewo
do środka ekranu.
One nie są przy samych brzegach ekranu,
tylko powiedzmy tam oddalone od tych brzegów o milimetr, od dwa.
Podobnie jest często z innymi przyciskami,
jakieś nagłówki, przyciski na górze jakiegoś okna,
nie wiem, jakieś przyciski edycji, jakiś filtr itd.,
no to one często też są troszkę zmniejszone
i też gdzieś bardziej przesunięte do środka ekranu.
No i kolejną taką dużą różnicą jest to,
że w aplikacjach, gdzie mamy jakąś wyszukiwarkę,
jakieś przyciski do tworzenia nowej wiadomości,
czy to e-mail, czy SMS, czy nowej notatki,
które zawsze były na górze ekranu,
no to one generalnie teraz zawsze będą się znajdowały
na samym dole, tam, gdzie gdzieś generalnie byśmy mieli pasę kart,
więc tutaj właśnie czy w poczcie, czy w wiadomościach,
no to jak będziecie szukać przycisku utwórz pola wyszukiwania,
no to w wielu tych aplikacjach wbudowanych w system
one będą na dole, no i pewnie za jakiś czas
też zewnętrzni będą pomału ten nowy design
integrować w swoich aplikacjach, więc może być tak,
że te pola wyszukiwania też zaczną wędrować w stronę dolną.
I być może dlatego to tak zostało poprzesuwane też,
żeby miejsce zrobić na te przyciski zarówno szukaj i dyktuj,
ale właśnie tutaj odnośnie do tych rozmiarów,
to nie wiem czy to Piotrek potwierdzasz,
natomiast te wszelkie paski narzędzi, zwłaszcza w Safari,
moim zdaniem to jest taki troszeczkę dyskomfort,
że trudniej jest eksploracją namierzyć ten pasek zakładek,
wiesz, tam gdzie masz udostępnić zakładki karty itd.,
że było to łatwiejsze w jeszcze iOS 18.
Tak, w ogóle jeśli chodzi o Safari, to jest też o tyle ciekawe,
że w Safari Apple w ogóle chwaliło się tym,
że jeśli mamy jakąś stronę, na której jest dużo treści,
to ten pasek może dynamicznie się troszkę skurczyć.
I tak faktycznie jest, w ogóle jeśli chodzi o Safari,
tak trochę wybiegając, no to mamy teraz trzy dostępne wyglądy
tego interfejsu do wyboru, no bo kiedy Apple postanowiło
dodać ten dolny pasek kart, to utworzyli dwa wyglądy,
gdzie możemy mieć ten pasek na górze albo na dole ekranu,
czyli pasek adresu, pasek kart.
A w iOSie 26 został dodany jeszcze trzeci układ,
który jest domyślny i to jest układ kompaktowy.
I on faktycznie jest taki zdecydowanie mniejszy od tego,
co mieliśmy wcześniej, bo tak naprawdę tylko mamy na tym pasku
przycisk wróć, pasek adresu, przycisk informacji o stronie,
tam gdzie możemy włączyć typ czytania,
a cała reszta, czyli przycisk do zakładek,
przycisk udostępnić jest pod przyciskiem więcej opcji.
W ogóle przycisku więcej opcji generalnie w tym nowym systemie
w niektórych miejscach generalnie jest więcej.
No tak mówiłem, więcej pustego miejsca, czy to jest na plus,
to nie wiem. Na pewno to jest coś, do czego będziemy musieli
się po prostu przyzwyczajać.
A jak to wygląda… Ja tylko zapytam szybko.
Jak to wygląda, bo jedno z obwieszczeń było takie,
że w momencie, kiedy przewiniemy sobie aplikację,
to zniknie nam pasek zakładek.
Nie zdarzyło mi się, żeby on mi całkiem zniknął.
Też się nad tym zastanawiałem. On się trochę zmniejszył,
ale żeby zniknąć całkiem próbowałem ładować naprawdę duże strony,
żeby to spróbować wymusić jakoś, przewijałem gestami.
Na szczęście mi całkiem nie zniknął.
Ile nam to tak naprawdę daje więcej miejsca,
żeby wyświetlać całą stronę, bo tak jakby wizualnie ten pasek
pływa nad stroną, to jest też kwestia dyskusyjna.
Tutaj widziałem komentarz chyba Marco Armenda,
czyli takiego znanego dewelopera Overcasta na przykład,
który stwierdził, że no, może jeden, góra dwa,
dwie linijki więcej tekstu się zmieszczą.
Czy to było warto? Jemu też się ten nowy wygląd jakoś nie podobał.
A propos komentarzy, to mamy na stronie kontakt.kratyflopodcast.net
Sylwester pyta się Pawła, czy będziesz miał kiedyś Maca?
Myślałem o tym, ale nie wiem.
W sensie wiem, że to byłoby fajne z perspektywy
pewnie ujednolicenia ekosystemu, że miałbym wiele rzeczy jakby
tu na kompie Mac, tu na telefonie iPhone i tak dalej,
ale nie wiem. W sensie lubię Windowsa,
używam go od lat, jestem przyzwyczajony i tak
poza oczywiście chęcią zeksplorowania czegoś nowego,
ewentualnie przetestowania, nie wiem, czegoś tam
w kwestii pracy na Macu, nie widzę na ten moment
takiego bezpośredniego powodu, ale chodziło mi to po głowie,
żeby nie było.
No ale ten ujednolicony interfejs, no nie, no dlatego nie kupisz Maca.
Dlatego Liquid Glassa mówisz?
Nie, Liquid Glass to na początek bym sobie obejrzał w formie wydruku 3D
i może sobie taką przyjemność…
Też jestem ciekawy jak to…
Ja jeszcze chciałem dodać odnośnie do tego przycisku
informacje o stronie, to jest takie zawsze mówię przełomowe,
bo na Macu to mieliśmy od lat,
na iPhonie dopiero teraz, a o co chodzi?
O wszelkiego rodzaju bezpieczeństwo, czyli o certyfikat,
jeśli chodzi o SSL, o stronę internetową,
od kiedy istnieje ta strona, powiedzmy i tak dalej,
kto jest dostawcą certyfikatu, domeny i tak dalej,
kiedy została zarejestrowana. Na Macu to mieliśmy,
natomiast na iOS-ie dopiero doszło to teraz, także jest w końcu.
A tego nawet nie widziałem, że tego na iPhonie do tej pory nie było.
Dobra, no to generalnie ten motyw,
wszystkie aplikacje wyglądają inaczej, będzie się przewijało,
zresztą na Macu też jest podobnie, nie zdziwcie się jakby na przykład
wam jakieś pole wyszukiwania powędrowało na dół okna, a nie na górę,
bo to jest ujednolicony design, ale no generalnie
te systemy cały czas wyglądają tak, wyglądają.
iOS wygląda jak iOS, Mac jak Mac i tak dalej.
A propos iOS-a, to właśnie od iOS-a
właściwie już tutaj Craig Federighi zeszł
i myślę, że o iOS-ie będziemy mówić, natomiast
bardzo dużo funkcji, o których będziemy wspominać,
pojawiły się na wszystkich systemach i będziemy o tym generalnie
wspominać, kiedy to jest potrzebne, więc tak,
będziemy je po kolei omawiać, ale bardzo dużo z tych rzeczy,
które pojawiły się na iOS-ie, no to też trafiły na iPada
bez zaskoczeń, ale też na przykład na Maca, na Watcha,
więc jeśli jakaś funkcja się pojawiła,
to o tym wspomnimy. I Apple zaczęło
rozmowę oczywiście od nowego wyglądu,
który trafił na ekran blokady,
nowy wygląd, ikon na ekranie głównym, w ogóle
teraz oprócz trybu ciemnego i jasnego mamy też taki
tryb pośredni, taki tryb przeźroczysty, albo to się nazywało
Clear Mode, albo jakoś tak to nazwali.
Mamy też przeprojektowany wygląd
aparatu i
generalnie
on po prostu trochę upraszcza to, ile mamy od następnych trybów,
bo tam faktycznie teraz tych trybów robienia zdjęć zrobiło się dużo.
I generalnie co Apple tutaj zrobiło,
to pozwoliło użytkownikowi sobie
to okno, ten taki słowak do wyboru narzędzi
dostosować. Możemy sobie po prostu
skonfigurować, które
opcje chcemy widzieć, które korzystamy,
a pozostałe gdzieś sobie schować.
Mamy generalnie na widoku dostępny
tryb zdjęć i tryb wideo,
no bo faktycznie z tych korzystamy najbardziej i właśnie pozostałe tryby mamy
schowane pod przyciskiem.
To jest aparat. Natomiast w aplikacji zdjęcia,
która była taką pierwszą aplikacją, która miała
taki nowy styl,
w którym mamy dużo takich
list przewijanych w poziomie.
Ekran jest podzielony na kilka części
i mamy kilka takich przewijanych list.
Co spowodowało, że Apple z tej aplikacji usunęło pasek kart.
Nie wszystkim się to spodobało. No i okazało się,
że nie spodobało się na tyle, że do zdjęć
pasek kart powrócił. Znaczy wyglądał cały czas taki odświeżony,
natomiast mamy tutaj teraz pasek kart, który
da nam łatwy dostęp do tego ekranu głównego,
ale też będziemy mieli dostęp do biblioteki i do kolekcji.
Czyli te właśnie kolekcje są generalnie
tworzone przez AI na podstawie
osób, jakie mamy zdjęcia, w miejsc, w których byliśmy
i tam parę innych takich
kolekcji było.
Później mamy Safari. O Safari to właściwie już
powiedzieliśmy. Jeśli chodzi o wygląd
tej aplikacji, nie wiem, czy jeszcze coś chcecie dodać,
jeśli chodzi o funkcjonalność Safari?
Nie wiem, coś się zmieniało przy pasku adresu, bo to się tam
zmieniało wiele razy, że tam kiedyś było przełączenie zakładek
jako czynność na pokrętle… kart, przepraszam, nie zakładek.
Coś tam… teraz ten wygląd pozmieniał
jakby w jaki sposób się prowadzi interakcje z tymi paskami?
Czy tam nie widać nic, żeby coś
zostało naruszone? To znaczy ja nie
bawiłem się… nie sprawdzałem,
jak się tymi zakładkami zacządza.
Na pewno na pokrętle cały czas opcja następna, poprzednia zakładka jest.
Także…
To znaczy nie wiem, na ile to
jest istotne teraz w tej części,
no bo tak naprawdę, ale w sumie powiem o tym teraz,
dlatego, że to zostało wydzielone z Safari.
A co zostało wydzielone? Mianowicie
nasze karty płatnicze, one
powędrowały z zakładki
wypełnianie. Tam teraz zostały
tak naprawdę chyba tylko informacje o mnie, czyli
powiedzmy wizytówka, dane kontaktowe i tak dalej.
Natomiast pierwotnie, gdzie były te karty,
to teraz zostało przeniesione do ustawień
do portfel i Apple Pay
i tam właśnie te karty można
sobie podglądać.
Mam wrażenie, że to nawet jest teraz łatwiejsze, jeśli chodzi
o interakcję z tym, powiedzmy,
niż miało to miejsce wcześniej.
I co jeszcze warte uwagi, te karty, jeżeli, powiedzmy,
nie mamy ich dodanych do Apple Pay,
to można je też z tamtego poziomu dodać.
Szczerze mówiąc, nie wiem
do końca, jak to przebiega. No pewnie numery i CVC,
te wszystkie daty ważności są
przechwytywane, ale że ja mam te karty dodane już
tak naprawdę, no to nie miałem potrzeby tego
testować. Ale opcja została wydzielona, jak najbardziej jest teraz
prościej. Mam wrażenie, jest teraz łatwiej, niż miało to
miejsce wcześniej.
No i kolejną aplikacją, w której mam wypływające kontrolki, to jest
FaceTime, w którym też, jeśli chodzi o takie
zmiany wizualne, to
dowiedzieliśmy się też, że będą się wyświetlać wizytówki,
kontaktów, to jest coś, co było oddane chyba w iOSie 17.
I mamy też w FaceTime pocztę,
nie jest poczta głosowa, poczta wideo, może tak to nazwijmy,
którą, kiedy będziemy teraz przewijać
niezobaczone, nieobejrzane wiadomości,
to one nam będą się automatycznie
odtwarzać. W FaceTime zmieniło się trochę więcej, ale o tym powiemy
za chwilę, kiedy będziemy omawiać takie bardziej
AI-owe funkcje.
I jeszcze tutaj dla tych, którzy czasami
może podróżują samochodami, a może osoby słabowidzące, które
mają swój samochód, CarPlay też został
zaktualizowany i z kilkoma takimi, myślę,
ciekawymi funkcjami, bo teraz
na ekranie samochodu będą mogły się wyświetlać
widżety, i to wszystkie, które mamy na iPhonie,
oraz jeśli coś się dzieje, jakaś
aplikacja coś uruchamia, no to te tzw. live activity,
czyli np. mamy jakiś, nie wiem, minutnik
dostawiony albo, nie wiem, wracamy do domu, zamówiliśmy sobie jedzenie
i obserwujemy, ile minut
zostało, może jakieś mapy, jakąś
informację, wynik jakiegoś meczu, zależy do czego
aplikacje to wykorzystują, bardzo kreatywne zastosowania
tego są, no i generalnie to właśnie
było też pokazane.
Jeśli o samochodach też mówimy, to
warto też myślę wspomnieć, że
Apple chwaliła się też interfejsem CarPlay Ultra,
który był zapowiedziany jeszcze bardziej, to jest
coś, co w bardzo luksusowych samochodach, teraz to się jakiś
Aston Martina chyba pojawiło, zastępuje całą
deskę rozdzielczą samochodu, czyli mamy interfejs
z prędkością, ze wszystkimi wskaźnikami
zaprojektowany przez Appla i to się pomału zaczyna
pojawiać, a dla tych, którzy tej funkcji nie mają,
ale może chcieliby po prostu otworzyć swój samochód
iPhone’em przez czip NFC, to też zostało
dodane do kilku nowych marek samochodów,
także ta funkcja też się cały czas rozszerza.
Komentarze mamy.
Komentarze od Sylwestra, w zasadzie jeden
głównie komentarz, dotyczący tego, że miał małego
iPhona, wypadł mu ten iPhone i się połamał, chciałby
dużego iPhona, bardzo dużego iPhona.
No i pewnie takiego, który by jakoś tam wytrzymał, więc
no, chyba wytrzymały iPhone,
który jest duży, no to chyba Pro Max?
Tak, Plus i Pro Max. Pro Max ma trochę mocniejsze
plecki. Generalnie teraz we wszystkich iPhone’ach to jest,
te plecki są ceramiczne, więc powinny być
bardziej wytrzymałe, natomiast mimo wszystko też warto się wyposażyć
w jakieś etui.
Ja na przykład niedawno kupiłem jakieś etui nawet w
iSpot’cie, no i to jest rzeczywiście takie
etui, które jest grube, solidne, ma takie dość
wystające ramki troszeczkę ponad ekran, żeby
go tam jakoś tam, choć odrobinkę chroniły, kiedy
ten, to urządzenie spadnie i to
generalnie wygląda trochę teraz jak taki telefon na budowę.
To jest pancerny, tak? Tak, taki pancerny
pancerny telefon, więc jest szansa,
że to wytrzyma, przy czym ten pokrowiec
również wspiera MagSafe’a
w związku z powyższym, no teoretycznie te wszystkie
powerbanki, które
są wyposażone w MagSafe’a, no to
mogą gdzieś tam być
używane bez zdejmowania tego
tego pokrowca, przy czym MagSafe
dla tych, którzy nie wiedzą, to jest tak, to jest
rodzaj połączenia magnetycznego, które polega
na tym, że przykładamy sobie
powerbank, czy co tam obsługuje tego MagSafe’a
do tyłu telefonu, to się
przymocowuje samo
na magnez, taki naprawdę dość silny
i można w ten sposób
ładować telefon, bez podłączania go gdziekolwiek, po prostu wystarczy,
że przyłożę sobie jakiegoś
powerbanka, czy coś, co wspiera tego MagSafe’a
no i telefon jest ładowany, więc
wygodne to jest. Ciekawość, jaka marka
etui? Jaka marka etui, Tomecki? Ojej,
nie pamiętam, Rak, Ruk, może nie.
Coś jakiegoś takiego. Ok, dobra.
Ale generalnie warto na to zwracać uwagę, producent zawsze
takie informacje podaje, jeżeli dane etui
wspiera ładowanie indukcyjne, to jest jedno, a jeżeli
a drugie, czy wspiera MagSafe, no bo ono jednak ma swój własny
też pierścień, powiedzmy, MagSafe to etui, które
tam się integruje, wtedy ułatwia to przewodzenie i tak dalej,
więc to jest ważne. Pierścień u mnie to jest akurat taki sześciokąt.
Tak to tu wygląda. Tak, to jest sześciokąt.
Jakieś takie. I on ma, no, ze cztery
centymetry wielkości, więc to jest duże.
Mhm. A druga rzecz, no to
też dobre, warto zainwestować w naprawdę fajne, dobre
szkiełko ochronne, bo to jednak też jest ważne, żeby
ja, jak mi w iMadzie założyli
takie konkretne chyba trzy lata temu, to jeszcze
w ogóle rysy nie ma i jeszcze nic parę razy lądował, więc no, warto.
Warto i to mogę powiedzieć z doświadczenia. Na szczęście nie zdarzyło
mi się, że zniszczyłem ekran, ale, ale no,
dużo taniej jest wymienić szkło ochronne, gdyby nam gdzieś na róg
spadło, bo to najczęściej właśnie jak, rajboże, telefon się obróci
i upadnie na róg, to właśnie wtedy takie szkło
bardzo się przydaje, to jest któryś telefon z kolei, gdzie
wyposażam się w coś takiego i to zdecydowanie
na plus. Więc to był
FaceTime,
to był wygląd, to był CarPlay,
a teraz przechodzimy, myślę, do funkcji ciekawszych.
I na pierwszy ogień pójdzie telefon.
Telefon, który też, podobnie jak aplikacja zdjęcia,
przy pierwszym starcie może nas przywitać
trochę przytłaczającym wyglądem nowym, bo
wiecie, jak to wyglądało do tej pory. Mieliśmy cztery zakładki.
Mieliśmy ulubione, mieliśmy ostatnie, mieliśmy kontakty,
a to sobie pięć zakładek, mieliśmy klawiaturę
czy przyciski, właściwie to jest przetłumaczone,
i mieliśmy pocztę głosową. Teraz
to wygląda tak, że mamy zakładki
trzy, z czego na pierwszej zakładce
mamy jeden ekran, na którym mamy
właśnie takie przewijające się w poziomie
listy na ulubione, na pocztę głosową
i na ostatnie, natomiast kontakty,
przyciski i wyszukiwarka to są
zakładki następne. I to faktycznie wygląda tak, że to się przewija
w poziomie. Gdyby ktoś nie miał
tej funkcji wizualnej poczty głosowej,
co nie wiem, ilu operatorów
to wspiera, chyba w sumie wiem, że Play to wspierał na pewno, a z innymi
to nie wiem, no to tam jest taka fajna czarna dziura wtedy na środku.
To też pewnie będzie dopracowane.
Natomiast ten wygląd jest inny.
Nie wiem, czy kiedykolwiek bym potrzebował mieć na jednym ekranie
ulubione i ostatnie. Na szczęście Apple też o tym
trochę wie, dlatego
to podobnie jak np. w przypadku Safari, możemy sobie
ten układ zmienić. Możemy wrócić do wyglądu klasycznego.
Wtedy cały czas jeszcze zakładki może będą trochę mniejsze,
tak jak wspominałem, to taka ogólna zmiana w całym systemie,
ale wtedy mamy dokładnie ten sam wygląd,
który mieliśmy do tej pory.
Natomiast jest to wygląd,
który skrywa
w sobie też nowe funkcje.
I pierwszą taką funkcją, którą Apple pokazał
jest coś, co się nazywa
call screening, czyli funkcja, która po prostu będzie nam
sprawdzać, kto dzwoni.
Niestety to, jak wiele z tych nowości,
o których będziemy mówić, nie jest dostępna w Polsce,
przynajmniej oficjalnie, bo to wspiera tylko
te najbardziej popularne języki, czyli tutaj mówię
o angielskim, hiszpańskim, o niemieckim, o francuskim,
o chińskim, chyba o japońskim i
portugalskim. Może jakiś język pominąłem, ale generalnie to są takie
najbardziej popularne. Jeszcze włoski.
Dziękuję. Więc to są faktycznie te najbardziej popularne języki.
Jeśli mamy język systemu
nawet przełączony na
angielski, to ta funkcja się pojawia.
Natomiast pewnie słuchacze
naszej rozmówcy będą słyszeć angielską syntezę, bo
generalnie to wygląda tak, że jeśli ktoś do nas dzwoni,
to, tak jak napisałem sobie w notatce,
iPhone pyta, kto dzwoni i w jakiej sprawie
i dopiero potem, kiedy ta osoba
coś powie, to nam
telefon zaczyna dzwonić i wtedy na ekranie widzimy
tą informację, którą podał słuchacz.
Słuchacz w rozmówce. Wczułem się tutaj w rolę
prowadzącego. I wtedy widzimy właśnie, że
dzwoni, powiedzmy, pani z ofertą
na nie do odrzucenia, na przykład jakaś.
I po prostu możemy wtedy zdecydować, czy chcemy takie połączenie
odebrać lub odrzucić.
Mamy bardziej rozbudowany
Antysfam. Oczywiście mamy cały czas funkcję
blokowania rozmów przez aplikację Orange Telefon,
gdzie kłania na przykład. Ale też mamy funkcję,
która pozwoli nam połączenie od
niezidentyfikowanych numerów przerzucić do
osobnej listy. Podobnie jak to
jest na przykład, nie wiem, na Whatsappie, na Facebooku,
na Messengerze. Bo wiadomość też jak jest, możemy
wziąć sobie wszystkie wiadomości, wszystkie połączenia też od
osób, których nie mamy w kontaktach,
czyli właśnie jakichś nieznanych numerów, numerów, których nie mamy w kontaktach,
żeby one trafiały do osobnej listy, żeby telefon
nam nie dzwonił, to akurat było, no ale teraz też po prostu
one mogą trafiać do osobnej listy.
I to też jak najbardziej jest do tego, tej funkcji
odbierania, nie musimy włączać.
Kolejna funkcja, która też niestety
nie jest na razie dostępna, aczkolwiek, nie wiem,
może zadziała za jakiś czas, to
Hold Assist. I to jest coś, co na Androidzie chyba jest od jakiegoś czasu.
Nie wiem, czy w Polsce, ale na pewno na Androidzie to już jest od jakiegoś czasu.
A mianowicie, to znów się przyda w sytuacji,
kiedy czekamy na połączenie, dzwonimy na jakąś
infolinię, słyszymy, że jesteśmy osobą
pięćdziesiątą w kolejce i
nam leci muzyczka i my musimy przy tym telefonie siedzieć i nasłuchiwać,
kiedy w końcu konsultant odbierze. A teraz nasz telefon
może to zrobić za nas. Możemy nacisnąć przycisk
Hold Assist i po prostu wtedy
telefon wyłączy dźwięk, on po prostu to połączenie
pozostawi aktywne i będzie sobie
czekał. Gdyby konsultant odebrał,
to po prostu telefon powie, że użytkownik zaraz podejdzie
do telefonu, czyli w sumie konsultant musi czekać.
Możemy się odgryźć.
W pewnym sensie, ale wtedy po prostu dostajemy powiadomienie,
telefon zaczyna dzwonić, że już mamy połączenie,
możemy z konsultantem porozmawiać i po prostu telefon za nas
to czekanie
załatwi. Niestety właśnie
to jest też coś, co
w Polsce dostępne nie jest.
Nie wiem, jakie jest wasze zdanie na temat
tych nowości. Szkoda, że tego nie ma u nas.
No tak, to prawda, zwłaszcza, że
pytanie np. co do takiej muzyki.
Oczekiwania na to, żeby ktoś odebrał, to na czym to polega? Na jakimś rozpoznawaniu
też mowy? Czy po prostu na tym, że rozpoznawany jest
wzorzec, że to jest muzyka,
ona sobie tam gra w tle. Pytanie też, czy zawsze
jest muzyka. Czasami jest tekst puszczany w kółko,
że jesteś któryś tam w kolejce, poczekaj.
Nie zawsze jest muzyka. No i pytanie właśnie,
jak potem wygląda kwestia…
Na bazie czego on się orientuje, że to jest ten… Ja przypuszczam, że to jest jakiś wzorzec.
Muzyka, muzyka, muzyka i potem jest odbieranie,
więc tutaj ani żadne rozpoznawanie mowy, chyba że…
No chyba, że to jest właśnie jakiś transkrypt, no bo gdzieś tam on sobie to
mimo wszystko… No bo skoro to i tak jest oparte na AI
tak naprawdę i te popularne języki, tak samo typu niemiecki
czy francuski są wymienione, no to… I tych języków tutaj
jest nawet mniej, z tego co wiem. Angielski, właśnie niemiecki,
francuski i chyba jeszcze jeden, ale
teraz nie pomnę.
Ja słyszałem w sesji którejś deweloperskiej,
która się pojawiła później, gdzie była mowa o rozpoznawaniu mowy
i tam było powiedziane, że od poprzedniej wersji iOS-a
pojawił się jakiś nowy, lokalny model, który
jest używany przez niektóre z tych nowych funkcji i on jest dostępny tylko
w tych językach, więc może to jest pod to jakoś podpięte.
No nie wiem. No mniej więcej szkoda. Szkoda, bo
to byłoby bardzo fajne.
Ale może w przyszłości to nas też trafi.
Mamy tutaj jeszcze jeden komentarz
z taką podpowiedzią.
Użytkownik podpisujący się jako
głośnik JBL mówi w zasadzie
Witam was wszystkich serdecznie.
Telefon w nowym systemie pyta nas, czy chcemy używać
klasyczny czy nowy wygląd podczas pierwszego otwarcia
aplikacji.
To mogę potwierdzić. Też to miałem faktycznie.
A w razie, gdyby się ktoś zdecydował na wypróbowanie
tego nowego widoku, a potem stwierdził, że o Jezu,
to mi się bardzo nie podoba, to bardzo
intuicyjnie przycisk nazwany, filtruj przycisk.
Tak naprawdę to jest to menu, które
nie tylko zawiera to, co chcemy filtrować, ale m.in.
możemy przyłączyć się na widok klasyczny bądź
ten właśnie nowy skonsolidowany.
Bo tego nie ma w ustawieniach telefonu, tak jak to ma miejsce
w Safari, że możemy sobie zmieniać widoki kart
z tego kompaktowego albo na górze, albo na dole.
Tylko to się właśnie znajduje w telefonie pod przyciskiem filtruj.
To tak jeszcze w goli uzupełnienia.
I jeszcze mamy jedno pytanie od Sylwestra.
Czy jest coś takiego jak
macOS z funkcją rejestratora z możliwością
podłączenia stereofonicznego
z jaskiem 3,5 mm?
Czy taki macOS istnieje?
Czy model Studio ma takie coś?
Bo ja na PC używam rejestratorów Olympusa.
Jeśli się pytasz,
czy w jakikolwiek współczesnym Mac ma
wejście 3,5 mm na mikrofon
na swojej obudowie,
to nie. I to od dłuższego czasu.
Natomiast, przez to, że to jest po prostu komputer,
to możesz podłączyć dowolny rejestrator czy kartę dźwiękową,
która takie wejścia ma, po prostu przez port USB-C.
Czy USB nawet po prostu.
Nawet właśnie przez hub z USB-C na USB-A.
Tak, a kart z jackiem, czy jest akurat dość dużo?
To znaczy, to nie jest tak, że każda karta
ma małego jacka,
ale są takie karty, które mają liniowe wejście
jack 3,5 mm.
I macOS z takimi standardowymi urządzeniami
audio jak najbardziej zadziała.
We swojego czasu testowałem to na Zoomie H1, na Olympusie
LSP4, też na takiej właśnie prostej
karcie, która ma tylko dwa jacki.
Jak najbardziej to po prostu można zrobić.
Więc to był telefon, a następne
zostały umówione wiadomości.
Oczywiście tutaj też mamy nowy wygląd, tak jak wspominałem, to się będzie przebijać
wszędzie, więc myślę, że już nie będziemy z tego wracać.
Ale a propos wyglądu, osoby widzące bardzo
lubią sobie dostosowywać wygląd
rzeczy, z których używają. I bardzo często jest tak,
że w komunikatorach, zwłaszcza jeśli mamy jakiś czat grupowy,
rozmowę prywatną z jedną osobą,
to czy to Whatsapp, czy Messenger, czy chyba Discord
też pozwala zmienić tło. Można sobie jakąś tapetę ustawić,
można jej po prostu kolory pozmieniać. W dużym uproszczeniu
w iMessage teraz też tak można zrobić.
Można sobie zmienić tło jakiejś konwersacji
albo po prostu poprzez zmianę koloru, poprzez
wygenerowanie jakiegoś tła używającej funkcji
Image Playground, która swoją drogą też teraz
integruje się z czatem GPT, więc tam można poprosić, żeby czat GPT
coś w konkretnym stylu namalował i to
można sobie do tej rozmowy wkleić.
Jeśli to jest czat grupowy, to wszyscy to nowe tło
zobaczą i po prostu w ten sposób
to stosować. To też swoją drogą słyszałem komentarze,
że to może być nie do końca fajne dla osób słabo widzących,
jak ktoś takie ustawi mało komfortowe tło,
ale zawsze jest opcja, żeby
to sobie ewentualnie zmienić.
Kolejna nowość, jeśli chodzi jeszcze o
iMessage, czyli też coś, co czy to na
WhatsAppie czy w innych aplikacjach jest
dostępne, to są ankiety.
Ankiety, które
tak jak wspominałem w innych komunikatorach
są dostępne
od dłuższego czasu i
w końcu też właśnie zawitały do iMessage,
możemy stawić kilka odpowiedzi i możemy na bieżąco
obserwować, czy
użytkownicy odpowiadają na nasze ankiety.
Możemy od razu widzieć, jakie się pojawiają odpowiedzi.
No i w językach, w których Apple InChangence
jest wspierane, to system może nam
automatycznie zaproponować
utworzenie takiej ankiety. To znów jest coś,
z czego niestety
my nie skorzystamy.
Natomiast jeśli właśnie prowadzimy jakiś czat grupowy
poprzez iMessage, no to można teraz też właśnie
z jego poziomu tworzyć ankiety.
A propos czatów grupowych, to też mamy informację o tym,
że ktoś do nas pisze, bo generalnie
to w czatach grupowych ta informacja po prostu wcześniej nie była widoczna.
Teraz też mamy informację, jak ktoś pisze, więc tutaj pewnie
to będzie VoiceOver czytał. Też w czatach grupowych
pojawił się przycisk, żeby łatwo dodać
jakiegoś członka
tego czatu do naszych kontaktów, gdybyśmy jakieś osoby
nie mieli. I taka najciekawsza nowość,
jeśli chodzi o wiadomości,
to one też się doczekały antyspamu.
Nie wiem, czy sam antyspam będzie działał w Polsce, szczerze mówiąc.
Natomiast,
tak jak mówiłem, podobnie jak na WhatsAppie czy na Messengerze,
będzie osobna lista dla nieznanych odbiorców,
więc tutaj, jeśli mamy jakiś numer, którego nie mamy w kontaktach,
możemy skonfigurować tak, żeby to trafiało do osobnej skrzynki.
Tak jakby. Natomiast, jeśli to tak skonfigurujemy
i później boimy się, że na przykład, nie wiem,
nie przyjdzie nam jakiś kod weryfikacyjny,
który miał przyjść na SMS-a, no to system ma być na tyle inteligentny,
że nawet jeśli mamy tą opcję włączoną, która ma nam
powiadomienia na przykład wyciszać, bo można tak sobie to
skonfigurować, ale przyjdzie nam SMS,
którym jest jakiś kod weryfikacyjny, jakiś link, który trzeba kliknąć,
żeby coś zalogować się gdzieś na przykład,
to one nam w normalnej skrzynce odbiorczej
mogą się i tak pojawić. System po prostu będzie w stanie coś takiego
wykryć i taką wiadomość wyświetlić.
To jest akurat jak najbardziej, wydaje mi się, zmiana na plus.
Tego spamu SMS-owego jest coraz więcej.
Nawet może to, że to będzie jakoś trafiało
do osobnej skrzynki, to myślę, że
może być całkiem fajne. Ciekawe, czy to
by można było jeszcze bardziej rozbudować. Może gdyby aplikacje mogły się
z tym integrować. Jakby tak Orange Telefon
miał bazę na numery telefonu,
które często SMS-y wysyłają, to w sumie też byłoby
fajne. Nie wiem, czy taka możliwość jest,
chyba jeszcze nie. Natomiast będzie można sobie trochę
w pewnym sensie
w tej sprawie pomóc.
Słyszałem, że a propos voicemail,
czyli ta poczta głosowa, że podobno też jakiś filtr
antyspamowy ma, czy coś, czy w wiadomości głosowej i tak dalej.
Natomiast jeszcze a propos ankiet,
to w czatach indywidualnych też
ona jest dostępna, ta opcja.
Testowałem sobie to. Tak na razie to jest, przyznam szczerze, mało dostępne
jeszcze. Natomiast gdzie
się tego szukać? Ano pod przyciskiem Dodaj, w sensie na lewo
od wiadomości, tam gdzie w iOS-ie jeszcze 18 mamy przycisk
Aplikacje. Tak teraz ten przycisk się nazywa Dodaj
i tam mamy cały zbiór też tych różnych aplikacji.
Typu właśnie ta…
Jak to było? Ta sesja Daj Znać powiedzmy, czy tam wyślij
później i tak dalej, to teraz też tam mamy ankiety.
No i tutaj
kolejna, kolejna, z takiego właśnie przeszczekam.
To jest pierwsza beta, więc jeśli słyszycie, że coś jest nierozstępne,
coś nie działa, to będzie pewnie
na 99% naprawione i no
właśnie jeśli ktoś się decyduje na instalację, no to
właśnie trzeba się z takimi rzeczami liczyć.
Generalnie lepiej to robić na urządzeniu drugim,
nie naszym podstawowym, więc to trzeba być
na takie rzeczy przygotowane, to instalujcie tylko jeśli faktycznie
chcecie to testować, chcecie jakieś błędy
tego typu właśnie zgłaszać.
Ale myślę, że kiedy iOS 26 pojawi się oficjalnie
i pozostałe systemy zresztą też, bo akurat te funkcje z wiadomościami,
ankiety i tak dalej też na Macu i na Watchu
się pojawią, no to one raczej będą dla nas dostępne.
Właśnie tych błędów jest teraz naprawdę mało. Teraz tych błędów
jest stosunkowo w porównaniu do przelink systemów,
o czym też Apu gdzieś tam mówiło, to tego jest
w sumie naprawdę mało. Ja jeszcze wrócę do aplikacji
telefon na chwilkę, bo wspomnieliście, że Ty Piotrze wspomniałeś,
że FaceTime ma teraz taki tryb, że
te wiadomości wideo odtwarzają się automatycznie
w miarę przewijania po liście. Czy to zachowanie
da się jakoś wyłączyć? Bo no to nie jest
chyba specjalnie fajne, zwłaszcza jak z voice-overem używamy
sobie telefonu i musimy konkurować gdzieś tam
jego głośnością z głośnością tych filmików,
no filmików, no wiadomości, tak?
Zazwyczaj się doradza, żeby po prostu różnego rodzaju auto-odtwarzania
były opcjonalne. Jak to jest tutaj?
To znaczy, przepuszczam, że
bo w iOSie w ustawieniu dostępności mamy
taką funkcję dostępności blokuj auto-odtwarzanie.
I to w miejscach takich jak App Store na przykład, gdzie też się normalnie
odtwarzają zwiastunki, one są wyciszone domyślnie,
ale się odtwarzają, no to to to blokuje całkowicie.
Więc przepuszczam, że to też będzie kontrolowane przez tą opcję,
a też prawdopodobnie one będą na początku wyciszone,
chyba że my faktycznie na tą wiadomość strutniemy.
Ale na 100% też tego nie mogę potwierdzić,
no ale na pewno taka opcja w ustawieniach dostępności jest,
więc przepuszczam, że ona tutaj też będzie
jak najbardziej działała, zwłaszcza biorąc pod uwagę,
że to jest wbudowana aplikacja w system.
To dobrze wiedzieć, bo, znaczy fajnie, że zapomniałem o tej opcji,
bo no trochę byłoby to pewnie ciężkie w obsłudze.
Z pewnością, nie tylko dla osób niewidomych słowowidzących,
jak ktoś ma problemy z zmieniającymi się obrazami,
tak też dla tych osób takie funkcje się pojawiają,
także to powinno po prostu być.
Teraz powiemy trochę o spisywaniu tekstów.
Jeszcze może zanim to komentarz, bo też Sylwester pyta,
czy konferencja jest tylko w języku angielskim, czy również w innych.
Kilka tłumaczeń na bieżąco było.
My generalnie, no oryginalnie w języku angielskim
i w języku angielskim mieliśmy do dyspozycji audiodeskrypcję.
Nie wiem, czy teraz mamy na stronie udostępnione jakieś napisy,
bo chyba podczas konferencji napisów po polsku może były?
Nie wiem, czy ktoś was sprawdzał?
Nie, po polsku niestety nie.
Tam po niemiecku, włosku chyba, hiszpańsku, angielsku i…
No i prawdopodobnie nie będzie.
Ja sprawdzałem jeszcze, powiedzmy, zeszłoroczną konferencję kiedyś
od swojego czasu, no to tego polskiego też niestety tam nie było.
Ale słuchajcie, a czy nie są organizowane jakieś takie…
Kiedyś były, pamiętam, że chyba albo My Apple, albo iMagazine,
któryś z tych portali takich ogólnoaplowych organizował kiedyś
taką transmisję, która była de facto omówieniem,
czyli nie leciał tam oryginalny dźwięk konferencji,
ale działo się to też na żywo.
No i tam, nie wiem, czy Norbert Cała chyba i ktoś jeszcze, Dominik Łada,
ktoś z tych takich znanych jakby aplowskich reporterów polskich
na bieżąco komentował to, co tam nowego się ukazuje.
To jest jeszcze przez kogoś organizowane?
Nie wiem, ale to też mogłoby być jakieś rozwiązanie.
Zastanawialiśmy się nad tym, czy coś takiego w ogóle zrobić,
natomiast to zmienia się dosyć dynamicznie, szybko,
więc stwierdziliśmy, że lepiej po prostu to nagrać po konferencji,
ale faktycznie czasami takie rzeczy się zdarzały.
A teraz przez to, że te konferencje są tak naprawdę nagrane w formie wideo,
no to one są bardziej dynamiczne.
Tam po prostu te tematy są omawiane dużo szybciej niż kiedyś,
więc może coś jest z tym związane.
Ale może też po prostu takie rzeczy są, a o nich nie wiemy.
Jeśli ktoś z was słuchał takiego livestreamu, wiecie,
gdzie takie rzeczy można znaleźć,
to coś takiego można zorganizować w przyszłości.
No to możecie się z nami skontaktować kontakt.tyflopodcast.net
albo przez YouTuba, albo na WhatsAppie pod numerem 663-883-600.
Możecie tam dzwonić lub nagrywać się, ale podkreślam właśnie tylko na WhatsAppie,
a nie po prostu telefonicznie.
Ale to, że to jest nagrywane, to też ma swój plus,
o tyle że ta audiodeskrypcja jest zagwarantowana.
Gdyby to było na żywo, to nie wiadomo, jakby to było, prawda?
Natomiast transkrypty też są.
Później się pojawiają, co prawda nie od razu po opublikowaniu,
znaczy po zakończeniu strumienia, tylko później.
Ale transkrypt ewentualnie też jest, więc też można sobie to wziąć,
przerzucić potem do jakiegoś DPL-a, powiedzmy sobie to w ten sposób przetłumaczyć,
tak że jakaś alternatywa jest.
Na pewno te sesje developerskie późniejsze od razu z marszu te transkrypty mają.
Przeszukiwalne zresztą bardzo fajnie, ze znacznikami czasu i tak dalej.
Natomiast ten keynote główny, on też później, transkrypt się pojawia.
Nie wiem z jakim opóźnieniem, ale jest.
A propos tych sesji developerskich, to też, co muszę bardzo,
Apple za to pochwalić, to to, że oprócz transkryptu,
w każdej sesji w ogóle mają też rozdziały,
ale mamy też dostępny cały kod źródłowy, który był pokazany.
I to jest coś świetnego, jak ktoś programuje jakąś…
z możliwością skopiowania, no.
Tak, jak ktoś programuje, to wiecie, jak to jest po niewidomem oglądać,
na przykład tutoriale na YouTubie, tak?
Jak się coś programuje, gdzie nie widzimy tego kodu.
A tutaj mimo to, że tu są prezentacje wideo, to można sobie po prostu
te przykłady, które są tam pokazywane, bo generalnie te sesje
polegają na tym, że jest jakaś aplikacja tworzona w jakieś poszczególne funkcje.
I my możemy też później ten kod sobie sprawdzić.
Tak że to też jak najbardziej jest zdecydowanie na plus.
I też warto dodać, że one też mają audiodeskrypcję.
Na pewno ta późniejsza konferencja State of the Union,
która jest po tym kinocie, też na pewno ma tą audiodeskrypcję.
Nie wiem, jak inne. Chyba też, ale…
Tak że to też za to trzeba apla pochwalić.
Wiadomo, po angielsku, ale jest.
A propos tłumaczenia i tego typu wątków, teraz powiemy chwilę
o wprowadzeniu tekstu, bo mieliśmy taką sekcję,
która nawiązuje i do telefonu, i do wiadomości.
Pierwszą taką nowością były nowości
związane z tworzeniem emoji.
Jeśli chodzi o Memoji, Image Playground,
to jak mówiłem, zaraz JPT się kłania, to jest lepiej zintegrowane,
można sobie stylizować te zdjęcia,
ale jeśli jeszcze chodzi o tworzenie emoji,
to zostało stworzone coś takiego,
co nam trochę ułatwia tworzenie
takiej buźki, jaką my byśmy chcieli.
Co przez to rozumiem?
Możemy sobie wybrać jakiś awatar,
czyli np. kotka, pieska,
twarz ludzką, ducha,
pamiętam, jak to sprawdzałem, to duch mi się zaznaczył.
A potem możemy sobie wybrać
jakąś buźkę, uśmiechniętą, zasmuconą,
wystawiającą język, co chcemy.
System nam te dwie emotki połączy w jedną.
To jest oczywiście przez VoiceOvera czytane, także spokojnie.
No i tak sobie możemy to tworzyć.
Używając Apple Intelligence w jakimś sensie można
włączyć emoji z tekstem,
nie wiem do końca, jak to ma działać, no i właśnie mamy też to
generowanie zdjęć.
A drugą nowością jest znów coś, co
na Androidzie pojawiło się jakiś czas temu,
coś, co w niektórych aplikacjach, nie wiem, w Teamsach chyba się pojawiło
też jakiś czas temu, czyli
wbudowane tłumaczenie. Zarówno w wiadomościach,
zarówno w Facetime,
zarówno w telefonie, ale te wszystkie rzeczy mają znów
jedną rzecz wspólną. Mimo to, że tłumacz Apple
wspiera język polski, to te funkcje niestety znów
wspierają bardzo wąskie grono języków.
A szkoda, bo
jak to działa? No jeśli chodzi o wiadomości, no to
po prostu nasze wiadomości są tłumaczone
podczas pisania. My też możemy sobie wybrać preferowany język,
no i dynamicznie podczas naszej rozmowy
z drugą osobą, no to te wiadomości będą nam
tłumaczone. Jeśli chodzi o
Facetime, no to tam przynajmniej
w przypadku rozmów wideo,
to tłumaczenie będzie miało miejsce
jako napisy. Natomiast
przy połączeniach audio i przy telefonie,
no to te wiadomości oczywiście już nam będą czytane
przez syntezę. Co ciekawe, podczas tej
demonstracji wideo było słychać, że
jest opóźnienie, ale wydaje mi się, że to opóźnienie było takie dosyć
realistyczne. No trzeba się liczyć z tym, że to może
sekundę, dwie zająć. Ale faktycznie
to jest coś, co działa. Szkoda, że
nie po polsku, ale jeśli władacie językiem angielskim i np.
potrzebujecie tłumaczenia z niemieckiego, z francuskiego,
chyba z chińskiego, z tych popularnych języków,
to można to jak najbardziej
tego używać. Co ciekawe
i to jest chyba pierwszy raz
w Androidzie, bo aż tak to nie jest zintegrowane,
deweloperzy będą mogli się
z tym integrować. Czyli np. tłumaczenie
na Discordzie, w Zoomie, jak najbardziej
i system będzie na to pozwalał. Deweloperzy będą mogli się
z tymi funkcjami
w swoich aplikacjach
zintegrować.
Nie wiem, czy macie jeszcze coś tutaj do
dodania?
Co najpierw komentarz
od Sylwestra, który
napisał, że Siri może będzie po roku
2030, 32 do
35, bo cytuję
są trudności moi koledzy, bo w Polsce nie jest
zainstalowany silnik ze Stanów Zjednoczonych.
Okej.
Co następna była omówiona muzyka
i tutaj znów mamy motyw tłumaczenia, który
no to też tłumaczenie w polskim na ten moment
dostępne nie będzie. Znów aż szkoda i w sumie nie wiem czemu,
no bo tłumacz Apple to wspiera.
Teraz nie pamiętam, nie mam tego przed sobą, nie wiem, czy
ktoś z was sprawdzał.
Okej, no mniej więcej… Wydaje mi się, że nie, że spekulacje są takie,
że to nie będzie, bo to podobno też o AI oparte.
Aha, no szkoda. No więc tutaj
strony z tłumaczeniami tekstów na cały czas nam
będą przydatne. Też dla niektórych języków
będzie nam wyświetlana forma fonetyczna. Tutaj dla fanów
K-popu, J-popu i pochodnych
to na pewno będzie duży plus. Będzie można sobie
karaoke organizować. W ogóle o karaoke więcej powiem później, bo to
też jest ciekawy motyw, jeśli chodzi o
muzykę. Ale następne funkcje
w Polsce dostępne jak najbardziej już będą
i one są naprawdę ciekawe. Pierwsza rzecz, która
była pokazana i to jest coś, co faktycznie działa
i to jest po prostu super, jeśli słuchamy odpowiedniej muzyki
do tego, to są inteligentne
przejścia w takim stylu DJ-owym
bardziej, bo aplikacja będzie w stanie
wykonywać coś, co się ładnie nazywa
beatmatching, czyli po polsku to wygląda tak, że jeśli mamy
po sobie dwie piosenki, najpierw one będą w podobnym
gatunku, ale z różnymi gatunkami też
się da. Ale powiedzmy, że one mają
podobną tonację do siebie, podobne tempo z różnicą
10, nawet może 20 bpm
uderzeń taktów na minutę.
To kiedy, jeśli mamy tą funkcję
automix włączoną i pierwsza piosenka
się kończy, no to system nam automatycznie
zrobi przejście. Czyli to może wyglądać tak, że jeśli
druga piosenka jest wolniejsza od tej, która
leci, no to będziemy słyszeć, że ta pierwsza piosenka nam stopniowo
zwalnia. Nie tam, że wysokość tej piosenki
się zmienia, tylko słyszymy, że ona po prostu delikatnie zwalnia, zwalnia, zwalnia.
W pewnym momencie możemy usłyszeć, że
ten dźwięk zaczyna się robić taki przytłumiony
na przykład, tam sobie może być jakiś korektor, taki
tak zwany właśnie bandpass użyty,
że jedna piosenka zacznie się stłumiać,
a jednocześnie ten następny utwór, który
będzie otwarzany w tym samym takcie, będzie
coraz głośniejszy i tak płynnie aplikacja
przejdzie z jednej piosenki do
następnej. I to generalnie mu
z moich testów nawet wychodzi.
No i to jest bardzo fajna sprawa. Wcześniej mieliśmy tylko takie proste
przejście, tak zwany crossfade, który mogliśmy na sztywno
ustawić, ile sekund przed końcem
piosenki ma nam być zrobione przejście,
a tutaj po prostu sobie to włączamy i on nam takie przejścia robi.
Wygląda to też tak, że czasami ta druga piosenka
nie zacznie się koniecznie od początku. Może na przykład zacząć się gdzieś
pod koniec zwrotki, może już od refrenu po pierwszej zwrotce.
Jest w tym różnie, ale generalnie to jest zrobione tak, żeby
to przejście było jak najbardziej sensowne. Nawet jak się
nie da, no to wtedy też po prostu taki crossfade jest
na końcu zrobiony, żeby nie było jakiejś długiej ciszy
między utworami. Także to jest świetna sprawa.
Czyli jak to jest? On zwalnia po prostu ten utwór,
którego słuchaliśmy,
żeby dostosować go albo przyspieszać, żeby go dostosować do tego nowego, tak?
Dokładnie. Słyszałeś sety DJ-skie, tak?
No, zdarzało mi się. No, to co bardzo podobnie
wygląda w praktyce właśnie. Mnie się bardziej wydawało, że właśnie na setach
to się głównie jakby szuka takich utworów albo takich remiksów, żeby dopasować.
Chociaż da się też zwalniać, przyspieszać. No tak, racja, racja.
Okej. Ja tego szczerze mówiąc nie testowałem, dlatego też mam pytanie
odnośnie do tego. To się odbywa
na… w zasadzie… jakby na…
zarówno na albumach, jak i playlistach, jak i na tych tak zwanych
stacjach, które możesz tworzyć? Jak to generalnie wygląda, tak?
Na stacjach nie sprawdzałem, na playlistach to na pewno działa.
Aha, okej. I to zarówno jak masz pomieszane odważanie albo w kolejności.
Po prostu na…
na ekranie odważania sobie to można włączyć.
A propos playlist, mamy dwie kolejne bardzo fajne nowości.
Można teraz playlisty sobie organizować do podfolderów.
Bardzo dużo osób o to prosiło o Spotify to ma od jakiegoś czasu.
No i teraz w Apple Music też to jest.
I nie tylko playlisty, bo też artystów
i albumy można sobie przypinać.
I to jest też świetna sprawa. Jeśli sobie coś przypniemy, no to
na zakładce biblioteka, tam gdzie właśnie mamy te przyciski, żeby
przeglądać wszystkie playlisty, albumy, gatunki, które mamy zapisane,
na tym wszystkim będziemy też po prostu mieli nasze wszystkie
przypięte elementy. Więc jeśli mam jakąś listę, którą
słuchamy bardzo często, ale na przykład
tylko nam gdzieś wypadła z tej rotacji na tej stronie głównej,
no to można ją sobie po prostu przypiąć do biblioteki
i zawsze ją gdzieś będziemy mieli do dyspozycji.
Można maksymalnie na ten moment sześć takich
pozycji przypiąć sobie. Także myślę, że to jest też
coś, co dużo
osób myślę ucieszy.
I mamy komentarz tym razem głosowy.
Witam was bardzo serdecznie. Tutaj mam małą uwagę oraz
informacje dla posiadaczy
iPhone’ów z Touch ID. Dokładnie chodzi mi
o modele SE 2020 oraz 2022.
W nowym iOS 26 na ekranie blokady
pozbyliśmy się wskazówki, aby odblokować
naciśnienie i przycisk główny, ówcześnie
zwany jako początek i nie ma już tego
paseczka, który po przesunięciu w dół aktywował
pole wyszukiwania oraz widżety, a po przesunięciu
w górę wyzwalał aparat. Jest tylko data, godzina
oraz pokaż powiadomienia i od czasu do czasu też również pojawia się
centrum powiadomień, jeśli tych powiadomień mamy znacznie więcej.
A to ciekawe, dobrze wiedzieć.
Serdecznie dziękuję za informację.
Przez to, że mam większego iPhone’a, to
z perspektywy użytkownika iPhone’a nowszego
z Face ID, to ten ekran jakoś bardzo się nie zmienił dla VoiceOvera.
Nie wiem, czy się Maciek ze mną zgodzi,
czy ja nie zauważyłem, żeby tam jakoś dużo się zmieniło.
Wiesz co? Ja mam te przyciski
i te do powiadomień i tak dalej, to tam mam.
Natomiast czy on mówi tam
te dodatkowe wskazówki? W sumie nie wiem.
To była muzyka, no też
znów przypominam, beta pierwsza. Tutaj jest właśnie
dobry moment, żeby tego typu uwagi też zwrócić, bo może tam jest jakiś
błąd po prostu na tym mniejszym ekranie, trudno mi powiedzieć.
Następnie
Apple opowiadało o mapach
i chwalili się tym, że generalnie mapy nam będą więcej rzeczy
zapamiętywać inteligentnie,
bo
jak to tutaj sobie
zapisałem, jak to tłumaczyło samo
Apple, iPhone wie, że w drodze do pracy
zatrzymujemy się po kawę i informacje
o traście do jazdu, o korkach
i tak dalej, będzie to
uwzględniały, czyli po prostu czas przybycia na miejsce
uwzględni też to, że lubimy
na przykład do Starbucksa czy gdzieś po prostu się
zatrzymać. I to ma działać też jakoś inteligentnie, oparte o
Apple Intelligence w jakimś stopniu
i to po prostu teoretycznie powinno wykryć.
Przy okazji, chociaż to jest może bardziej związane z pogodą, ale
z podróżami, więc można to włączymy tutaj.
Pogoda też będzie w stanie wykryć, jeśli
planujemy jakąś podróż, nie wiem, na podstawie kalendarza,
może poczty, ktoś znów w Apple Intelligence się kłania, to będzie można
sobie włączyć. To na przykład
na widgetcie będziemy mogli sobie dodać widget, który pokaże nam pogodę
w miejscu docelowym i gdyby
w tym miejscu docelowym doszło do jakiegoś
alertu pogodowego, no to też ten system
powinien nas po prostu o tym
poinformować.
I drugą nowością w mapach
jest to, że możemy sobie skonfigurować
nasz telefon tak, żeby zapamiętywał
miejsca, które
odwiedzamy, jakieś miejsca publiczne, czyli tutaj jakieś restauracje,
biblioteki, sklepy na przykład.
I to po prostu pozwala nam
wrócić do tych miejsc, czyli nie wiem, chodzimy do jakiegoś miasta,
w którym nie byliśmy, gdzieś może szukamy jakiegoś fajnego miejsca,
żeby coś zjeść, nie wiem, może tak po prostu przez przypadek
sobie gdzieś weszliśmy,
spodobało nam się, potem nas ktoś pyta, a gdzie właściwie byłeś,
jak tam dojechać, no to możemy, jeśli mam odpowiednią opcję zapisaną,
oczywiście wszystko jest szyfrowane, nigdzie nie wysyłane,
możemy wejść do tych historii,
znaleźć tą restaurację na przykład i po prostu wysłać
lokalizację czy adres tego miejsca.
Także…
taka drobna zmiana, ale myślę, że
przydatna. Nie wiem, czy ktoś z Was jeszcze chce coś
tutaj dodać?
Okej.
A propos map to chyba tyle, nie?
Nie wiem, czy jakieś dla voice-overa są w tym rozdaniu jakieś zmiany,
wiecie o czymś, żeby coś tam lepiej się nawigowało,
albo coś lepiej się działało?
No dużo mapach nie sprawdzałem, nie widziałem, żeby było gorzej, więc…
W sumie o tyle fajne usprawnienie,
że na co uważam, u nas z perspektywy
Polaków to niestety Apple Intelligence,
a w przypadku innych stety, natomiast
a propos tych powiadomień pogodowych,
no bo tak naprawdę myśmy to poniekąd mieli, tylko
to trzeba było dla każdej lokalizacji, do której sobie dodajemy,
którą sobie dodajemy do tego podglądu
w pogodzie, no to sobie można było każdorazowo włączać
informacje, powiadomienia o trudnych warunkach pogodowych itd.,
a tutaj taki smaczek, takie usprawnienie
generalnie w oparciu
o Intelligence. Ale jakby nie patrzeć, mieliśmy to,
tylko teraz to zostało jeszcze bardziej usprawnione.
Następnie Apple omówiło
portfel, jeśli chodzi o portfel, no to
tak jak wspominał Maciek, to teraz też tam znajdziemy
wszystkie karty, które mieliśmy dodane do autodupełnienia
w Safari. Właśnie tutaj było wspomniane o tym, że kolejne
marki wspierają nawet kluczyki
do samochodów. Mamy
cyfrowe waszporty w USA, no więc z tego na razie
sprzeczy oczywistych nie skorzystamy, no chyba, że
słuchacie nas z USA w jednym ze Stanów,
które to wspiera, to jak najbardziej możecie.
Ale też został odświeżony wygląd
biletów lotniczych w portfelu, które też jeśli
jesteśmy w jakimś na tyle dużym lotnisku, będą
w stanie nam od razu wyświetlić mapę wewnętrzną, no bo
Apple w niektórych miejscach takie mapy wspiera i to nam pomoże
dotrzeć
do odpowiedniej
bramki na przykład i od razu nam się też wyświetli live
activity z informacją o
o locie, którym będziemy lecieć.
Czy jest coś opóźnione na przykład, no będziemy mogli to szybko
sprawdzić. Do Apple Pay zostały dodane
płatności w ratach, to chyba też u nas niestety nie jest
wspierane. I
ciekawa funkcja, która
może teoretycznie w pewnym sensie
tak ładnie się mówi zaszerlokować
niektóre aplikacje może jak Parcel na przykład, czyli
portfel też będzie w stanie wyświetlać nam
informację o śledzeniu różnych zamówień,
nie tylko tych, które opłacaliśmy z Apple Pay, bo wcześniej to było tak, że
tylko zamówienia, które opłaciliśmy przez Apple Pay mogliśmy
tak śledzić, to chyba w wybranych sklepach, a teraz Apple mówi, że to
teoretycznie będzie działało wszędzie. W praktyce
szczerze mówiąc, wątpię, bo
no bo jednak pewnie tutaj też będzie
Apple Needs Anything Potrzebne, a my cały czas tego nie mamy,
a po drugie coś czuję, że Apple chyba nie będzie wspierała
aż tylu dostawców co Parcel, więc coś czuję, że
jeszcze Parcel długo będzie aplikacją bardzo
przydatną. Swoją drogą,
bo ten motyw jeszcze parę razy się pojawi,
mówi się w środowisku
takich stron informacyjnych związanych z Apple,
zwłaszcza, że coś zostało zsherlockowane,
to jest coś, co
wywodzi się od aplikacji na jeszcze
pierwsze stare maki, która nazywała się Sherlock i to była aplikacja, która
pozwalała szukać po całym systemie, ale nie tylko
po Internecie. Aplikacja, która naprawdę była
bardzo ponoć dobrze zrobiona, jak na swoje czasy, którą
każdy chciał mieć, do momentu, kiedy Apple do
systemu nie dodał funkcji Spotlight,
która była bardzo szerlockiem zainspirowana i teraz właśnie jak
Apple skopiuje coś, co stworzył jakiś
deweloper w formie aplikacji, no to się mówi, że
jakaś funkcja została zsherlockowana.
I jeszcze parę takich motywów się dzisiaj
pojawi.
Nie wiem, czy jeszcze tutaj o czymś coś pominąłem?
Jeszcze odnosi do portfela, bo to chyba właśnie też
w oparciu o to i o dokumenty tożsamości,
czyli niestety nie u nas również, ale
identyfikacja wieku, potwierdzenie
tego właśnie, czy A, B na pewno mamy tyle lat, ile mamy.
No, przeważnie odbywa się to
za pośrednictwem wgrywania powiedzmy…
U nas to powiedzmy M obywatelem, ale w USA to chyba
była taka praktyka, że się wgrywało w fotki, dowodów
tożsamości. Natomiast teraz też
będzie w ten sposób to zorganizowane, że
jeśli mamy urządzenie z Apple, to będziemy
mogli w prosty sposób przesłać tak naprawdę tylko
informacje o tym, że mamy tyle lat, ile mamy.
A jeżeli Windows…
Na Windowsie też, owszem, to będzie można poniekąd zrobić, bo
kod QR się wyświetli na urządzeniu
na danej stronie. Jak zeskanujemy to
iPhonem, to tak naprawdę też te nasze dane
odnośnie wieku zostaną przekazane odpowiednim instytucjom,
które tego żądają. No i w ten sposób będzie się można
po prostu zidentyfikować.
Jeszcze też chyba śledzenie lotów dotoszło, tak? Chyba nie wiem, czy o tym wspomniałeś Piotrze?
Tak. Tak, śledzenie lotów.
No dokładnie. No i zobaczymy, jak z tym śledzeniem paczek,
bo to też jest potem pytanie właśnie, którzy operatorzy będą
wspierani i gdzie to będzie ogólnie dostępne.
Bo no, takie zamówione Apple Payem…
Przepraszam, jak ja zamawiałem tu kiedyś coś w Austrii,
to nawet chyba pokazywało mi całkiem sensownie jakieś powiadomienia.
No zobaczymy. To teraz powinno po prostu działać,
jak wykryje coś w poczcie na przykład,
tak? To teoretycznie po prostu
powinno zadziałać.
I teraz, co było omówione dalej?
Dalej były omówione gry.
I to jest nowa aplikacja, która jest tak naprawdę dostępna
na wszystkich systemach i to jest trochę
coś rodzaju takiego Steama,
czy aplikacji Xbox. To jest miejsce takie centralne,
w którym możemy zrobić wszystko, co byśmy chcieli
związane z naszymi grami. Tam będzie dedykowana
zakładka do Apple Arcade na przykład.
Cały czas oczywiście możemy z App Store’a kupować te gry,
ale w tej aplikacji
evenoperzy będą mogli na przykład nam wyświetlać
różne wydarzenia. Więc jeśli jakaś gra oferuje nam
jakąś promocję, jakieś unikalne przedmioty,
bo często takie rzeczy mają miejsce,
no to
będziemy mogli o tym przeczytać
na tej zakładce.
Będzie można też gry wznawiać, trochę tak jak na Netflixie,
będziemy mieli sekcję Kontynuuj grę i po prostu
na podstawie tego, co ostatnio graliśmy, system nam może
różne tytuły zaproponować.
No i będziemy mieli rozbudowane funkcje
społecznościowe. Mieliśmy Game Center i on cały czas tam jest,
natomiast on został bardziej wypromowany
znów. Z tym Game Centerem było różnie. Kiedyś to była
aplikacja, potem to w ogóle całkiem zniknęło,
potem to była zakładka w App Store, teraz to jest znów
aplikacja dedykowana. No i znów tutaj mamy
wypromowane osiągnięcia,
listę znajomych i mamy też wyzwania.
I to jest też fajne, można generalnie
dowolnemu z naszych znajomych rzucić
wyzwanie. Jeśli zrobiliśmy w jakiejś grze
dobry wynik, no to możemy po prostu
komuś to wyzwanie rzucić. No i jeśli uda się
tej osobie, no to dostajemy powiadomienie.
W samych grach też będzie można wywołać
nowy interfejs, zarówno z ekranu dotykowego, jak i
też z kontrolera. Jeśli mamy kontroler podpięty, chyba
może to bardziej na Macu, no więcej. Będzie też dostępny
taki interfejs mniejszy, do którego
będzie można wejść podczas gry, z którego poziomu będziemy
mogli różne funkcje dostosować, jasność
ekranu, tryb zużycia energii,
ale też zaprosić znajomych do gry wieloosobowej,
na przykład też właśnie przeglądać osiągnięcia,
tabelę dla najlepszych wyników. No generalnie to wszystkie funkcje
związane z grami zostały
tak bardziej wypromowane. Mamy dotykowaną aplikację,
która jest we wszystkich systemach na Macu, to nawet jest w stanie
wykryć gry, które są spoza App Store’a, więc jeśli mamy
jakieś gry ze Steama, na przykład, to
one tam też się pojawią, więc po prostu mamy takie
jednocentralne miejsce. Tak więc, Biotr,
to jest taka biblioteka, prawda, tych wszystkich też?
Tak, to jest dosłownie zakładka biblioteka i możemy
sobie to przeglądać.
Następna rzecz, która była omówiona, to
były funkcje Visual Intelligence i to jest coś,
co, wydaje mi się, może nam się
czasem przydać, bo
to jest coś, co generalnie na początku zostało dodane do
iPhona 16, z czasem aktualizacją trafiło też do
iPhona 15 Pro, czyli pierwszego
iPhona, który te funkcje AI miał.
Jest to funkcja, która pozwala nam
zrobić zdjęcie czegoś aparatem,
a następnie coś z tym zdjęciem zrobić,
wyszukać, możemy zapytać czata
GBT o zawartość tego zdjęcia
albo wyszukać je w internecie. Jeśli
na tym zdjęciu jest na przykład informacja
o jakiejś dacie, czy jest jakieś wydarzenie, coś, to można
dodać do kalendarza, no to może to zostać dodane.
Jeśli jest jakiś adres, no to możemy ten adres wyszukać.
Jeśli jest
jakieś numer, to można zadzwonić,
to generalnie różne rzeczy ten system wykrywa.
To było dostępne do tej pory, natomiast teraz
te funkcje zostały rozbudowane w dwa istotne
sposoby. Po pierwsze dostępnych opcji będzie
więcej, bo na przykład będziemy mogli poprosić, żeby
zawartość została nam streszczona, ale też będą
mogli się z tym integrować zewnętrzni debeloperzy.
Ja już tutaj w tym widzę dosyć duży potencjał, bo
teoretycznie może nam to pozwolić na przykład
na wyszukiwanie, czy właściwie opisywanie czegoś może
przez aplikację typu Be My Eyes
z jednym dosłownie przyciskiem.
A druga rzecz
jest taka, że można teraz też
Visual Intelligence aktywować na
zrzutach ekranu. Więc wystarczy, że
zrobimy zrzut ekranu tym skrótem, co zawsze, i oprócz tych wszystkich przycisków,
które mieliśmy do tej pory, będziemy też od razu mieć przycisk
Visual Intelligence. Jeśli go naciśniemy, no to
wszystko można, te wszystkie funkcje można
wywołać. Przykład, jaki dało Apple jest taki, że
ktoś zobaczył jakąś fajną kurtkę w social mediach,
po prostu zrobił screena, nacisnął na ten przycisk
Visual Intelligence
i można po prostu od razu sobie
tą kurtkę wyszukać, dodać coś do kalendarza,
właśnie o to zdjęcie się pytać. Mamy dosłownie przycisk
Zapytaj, więc tutaj jak najbardziej dla osób niewidomych
widza potencjał. Chyba, niestety, będzie trzeba też sobie przełączyć
język, bo to cały czas są funkcje
związane z Apple Intelligence, ale tutaj głowy nie dam, no bo
można to też zintegrować właśnie z
dostępnymi aplikacjami, tutaj z chatem GPT, więc
to może być dla nas fajny,
łatwy sposób na
opisywanie,
na przykład właśnie opisywanie zdjęć.
I to była ostatnia rzecz, która tak ogólnie była powiedziana
jeśli chodzi o iOS-a. Oczywiście to jeszcze nie jest koniec, bo wiele funkcji,
o których za chwilę powiemy więcej, to się wszystko będzie zaznaczało i jeszcze trochę
nowości do iOS-a dojdzie. To było
w konferencji, natomiast
teraz przejdziemy do omówienia rzeczy, które
są związane z dostępnością.
I tutaj będziemy opierać się m.in. na tym, co
Apple powiedziało wcześniej, w zeszłym miesiącu, no bo
wtedy, bo nowości do dostępności były
zapowiedziane wcześniej, ale też różnych rzeczy, które odkryła
społeczność, bo oczywiście tutaj w mediach społecznościowych
na Apple widzieli się w różnych miejscach,
różne informacje zaczęły się pojawiać i na tej zasadzie można też
dużo więcej wypełnić, oprócz tego, co
zostało zapowiedziane. Może zanim jeszcze, czy
mamy jakieś wiadomości?
Czy na razie…
OK, czyli na razie chyba jest spokój.
A więc, jeśli chodzi o dostępność,
no to taką sztandarową nowością, która
jest bardzo promowana przez samego Apple,
jest tryb notatnika brajdowskiego.
Nazywa się to Braille Access,
czyli dostęp brajdowski. No i to jest faktycznie
coś, co można sobie wywołać, jeśli mamy podłączoną linijkę
brajdowską. I to jest faktycznie taki
prosty notatnik, który zachowuje się
faktycznie, nawet pod względem poleceń,
jak taki notatnik brajdowski. Możemy pisać notatki, które później zapisują
się w iCloudie jako pliki BRF.
Możemy też takie pliki otwierać.
Mamy z tego miejsca też dostęp
do kalkulatora, w który możemy wpisywać równania
systemem NIMAF na ten moment,
czyli tym systemem amerykańskim. Może za jakiś czas
będzie dodany też brajl UEB, czyli
to jest unifikowany brajl angielski,
ale na ten moment go nie ma.
Oczywiście notatki to można pisać w każdym języku, bo tam się po prostu
same punkty tak jakby
zapisują.
I jeszcze mamy do dyspozycji
uruchamianie aplikacji dowolnej,
więc trochę też coś mamy na ekranie głównym, a tutaj też to możemy wywołać
z każdego miejsca tak naprawdę.
I mamy też dostęp do
live captions, czyli napisów na żywo,
a więc telefon nasłuchuje z mikrofonu,
czy nie tylko telefon zresztą, bo to akurat też jest coś, co się pojawiło
na iPadzie też i na Macu.
No i na podstawie tego, co usłyszę, po prostu nam się będą wyświetlały
na liniice napisy. Natomiast znów tutaj też
język polski na ten moment nie jest
wspierany. Kilka języków nowych
zostało dodane,
ale ten język polski
cały czas dostępny dla tej funkcji
nie jest. Ale sam tryblewski jak najbardziej
można w nim po polsku pisać.
A propos Brailla, no to tutaj nowości
to jak najbardziej jeszcze nie jest koniec,
no bo potem społeczność odkryła
kolejne ciekawe rzeczy. Ci, którzy
korzystają z wejścia ekranu Brailla na pewno się ucieszą, bo Apple
cały czas ewidentnie w to inwestuje
i został dodany tryb jednoręczny,
bo czasami mogą zdarzyć się sytuacje,
w których nie możemy pisać
dwoma rękoma i w takich sytuacjach
możemy wywołać wejście ekranu Brailla
jednoręcznego. Mamy do dyspozycji dwa tryby.
Mamy tryb kolumnowy, więc tutaj pewnie
występujemy najpierw jedną kolumnę
jednym lub kilkoma palcami, a następnie drugą i później
zatwierdzamy to i znak się wpisuje. Czyli działa to trochę
tak jak na monitorach
jak mają jakiś tryb jednoręczny, to on generalnie właśnie tak wygląda.
Natomiast drugim trybem, jaki mamy, to jest
tryb tabliczki i dłutka.
I w tym trybie nasz ekran zamienia się w taką tabliczkę
i po prostu możemy sobie punkty po kolei
na ekranie wystukać.
No i w ten sposób możemy, używając
tylko jednej ręki, nawet jednego palca,
jakieś dłuższe teksty, może nie dłuższe,
żeby szybko jakąś aplikację uruchomić,
coś sobie zmienić w systemie,
to można w ten sposób wejście ekranu Brailla
zastosować i jakiś tekst sobie szybko wprowadzić.
I tego mi brakuje na Apple Watchu właśnie.
Jeszcze raz?
No właśnie, to mogłoby wejść na Watcha.
Naprawdę. Może. Nie wiem, ile ma punktów dotyku
Watch, ale taki…
Cztery na pewno.
Dałby radę. Albo nawet ten jednoręczny taki,
ten podzielony na kolumny.
No właśnie, ten jednoręczny. A nawet jeśli nie, to tej tabliczki braillowskiej tak naprawdę,
bo co by im zaszkodziło to dodać? Właśnie, a propos tego trybu Brailla
tabliczki, to w sumie mamy tryb tabliczki i tryb odwróconej tabliczki,
tak żeby było śmieszniej.
No i też jeszcze, zostając w temacie wejścia ekranu Brailla,
można też przepisać polecenia
w trybie poleceń.
Więc jeśli ktoś by chciał sobie na przykład, nie wiem,
stworzyć łatwe sterowanie utwarzacza, albo właśnie zmienić to,
robią poszczególne gesty z jakiegoś powodu,
można teraz dowolne polecenie sobie do tego trybu poleceń
przepisać, więc też fajna sprawa.
I coś akurat już dla developerów,
a może nie dla nas samych, to już nowość,
z którą można znaleźć dokumentację developerskiej,
pojawiło się systemowe, globalne API
do tłumaczenia Brailla. Więc teoretycznie ktoś by mógł
teraz do App Store’a, zarówno na iPhone’ie, czy na Mac’u,
wpuścić aplikację, która będzie w stanie nam
pliki tekstowe na przykład zamienić na pliki Braillowskie
lub vice versa.
Fajnie, bo to się może przydać.
Może też jakaś aplikacja do nauki Brailla.
Pomysłów na zastosowanie tego pewnie…
Różne notacje, pamiętajcie, matematyka, muzyka,
chemia,
wszelkiego rodzaju dziedziny, gdzie jest specjalny Braill
do czegoś używany.
Tak, więc developerzy mogą po prostu do tych wszystkich tablic,
które są w systemie zintegrowane, skorzystać
i w dwie strony Brailla tłumaczyć.
Więc fajna sprawa.
I jeśli jeszcze chodzi o VoiceOver’a, taka drobna rzecz, którą
użytkownicy znaleźli,
można sobie skonfigurować, żeby ten gest
magicTab, to długorozne skręcienie dwoma palcami,
nie uruchomił na otwarzania muzyki.
Bo wiecie, jak to jest, jeśli generalnie ten gest działa tak,
że jeśli jest jakaś czynność w aplikacji, czyli rozłączenie
telefonu, czy odebranie,
czy na przykład w aplikacji Mona
można sobie to dostosować, w Facebooku to otwiera menu,
no to ta funkcja jest wywoływana, jeśli nie ma funkcji,
no to po prostu zaczyna lecieć muzyka.
Jakby ktoś tego nie chciał, no to teraz też
można sobie to wyłączyć.
I to jest VoiceOver, chyba, że coś pominąłem.
Chyba nie pominąłeś, ale swoją drogą
ciekawi mnie, czy zostanie tłumaczenie
tego wejścia ekranu Brailla, które teraz się nazywa po polsku
wejście monitora Brailla, tak trochę inaczej.
Ekran monitoru, no…
W sumie to też coś, co ewentualnie można zgłosić.
Teraz opuszczając
VoiceOvera, ale jak najbardziej cały czas dostając
w sferze cały czas dostępności,
no to znów tutaj na wszystkich systemach zostaną do App Store’a
dodane etykiety dostępnościowe.
Czyli tak jak mieliśmy informację o tym, jakie dane
zbiera jakaś aplikacja pod względem
prywatności, tak, czy na przykład jakieś identyfikatory
są zbierane i tak dalej, różne tego typu rzeczy,
no to będziemy mieli podobne etykiety związane z
dostępnością, czyli będziemy mogli dowiedzieć się, czy
jakaś aplikacja, czy gra wspiera VoiceOvera,
inwersji kolorów, jakieś funkcje związane
z powiększaniem.
O tym wszystkim będziemy informowani. Apple już też
przygotowało sesję dla deweloperów, w której
opowiadają, jak
wypełnić ten formularz odpowiednio, bo generalnie to zgłasza
deweloper, na co zwrócić uwagę, jak aplikację testować
na danym urządzeniu.
Więc do tego deweloperzy będą mieli dostęp.
Miejmy nadzieję, że to będzie faktycznie wykorzystywane
tak, jak to powinno być wykorzystywane.
Wiemy też, że za jakiś czas może
te etykiety będą były wyjątkowe. Na start nie będą, ale za jakiś
czas, tak jak mówiła pani Sara Hellinger
podczas wywiadu w AppleVisie na przykład, że za jakiś
czas deweloperzy po prostu będą musieli
taką deklarację dać, czy ich aplikacja nie jest
albo nie jest dostępna, więc oby faktycznie to
było przydatne.
Czy to obowiązuje też gry w aplikacji gry?
Myślę, że tak.
Bo to jest chyba w Store.
Chyba coś było o tym faktycznie wspomniane.
Ja szczerze mówiąc dla żadnej gry
jeszcze nie przeglądałem
pod tym kątem gier, ale w aplikacjach już
w widoku poszczególnej aplikacji już faktycznie jest
nagłówek, zaraz pod informacjami
o prywatności już jest faktycznie ten
nagłówek dostępność. No ale siłą rzeczy
jeszcze wiadomo przy każdej aplikacji
jeszcze jest napisane, że deweloper nie wskazał konkretnych
etykiet dostępności, natomiast przycisk
znaczy link, w zasadzie więcej informacji też jest,
gdzie otwiera artykuł z App Store’a właśnie
odnośnie do tego jakie w szczegółach te etykiety
jakie tam będą wyróżnione tak naprawdę jak deweloper
co może zaimplementować.
No i też tak naprawdę w jaki sposób
aplikacji z daną
funkcją dostępności używać.
Powiedzmy to co mamy teraz
na przykład w Uberze w sekcji dostępność, że tam
aby zrobić to zrób tak, aby wywołać to
zrób jeszcze inaczej, prawda?
To teraz to będziemy mogli mieć bezpośrednio
w App Store’e, to jest jedno. A druga
sprawa jest taka, że teraz w momencie
pod przyciskiem wsparcie
też będziemy mogli temu deweloperowi
faktycznie zgłaszać te różne rzeczy
związane z dostępnością, a gdyby deweloper
rażąco naruszał etykiety dostępności
to znaczy swoje deklaracje, deklarowałby jedno
a tak naprawdę to by się nie pokrywało
to coś takiego będziemy mogli też zgłosić
w zgłość problem, no i to generalnie
tam bezpośrednio do Apple’a, tam będzie odpowiednia też sekcja
odnośnie dostępności i wtedy samo Apple się wtrąci
jakby w… jeśli chodzi o interwencję, o działania
i no i deweloper będzie musiał wtedy
sprostać tym wymaganiom rzeczywiście, jeżeli były niedociągnięcia
które zadeklarował, a się z nimi nie wywiązał, to wtedy
rzeczywiście samo Apple będzie interweniowało.
Ej, kontrowersyjne opinie.
Apple Sherlockuje Apple Viz?
No Apple nie ma jeszcze tyle filtrów, żeby tak było
ale jakieś początki
No bo stricte filtrów to jeszcze nie ma, żeby faktycznie można było
szukać pod względem
tych etykiet, ale i tak, że można je już przeglądać.
Szkoda, że o tym nie pomyśleli, bo to jest takie dość oczywiste, by się wydawało, że
no fajnie, że można sobie wyszukać aplikację dowolną
i sprawdzić jej informacje na temat dostępności
no ale też przeszukiwać apki, na przykład filtr pokaż mi tylko dostępne aplikacje
z voice-overem. Spokojnie, to będzie w 27
wersjach systemu albo
i to będzie amazing feature, nie?
Chyba, że jeszcze teraz tak naprawdę to nie jest powiedziane
bo jeszcze w ciągu roku tak naprawdę pamiętajmy, że
i tak Apple coś nowego dodaje, coś co
nie było też zapowiadane na konferencjach, tak też było w zeszłych latach
więc i może się gdzieś tam doczekamy tego, kto wie w sumie.
Na pewno zgłaszać.
W różnych dostępnościowych mamy
wiadomość głosową od znowu użytkownika
podpisującego się jako głośnik JBL.
Tylko, że muszę zrobić tak, żeby
było to słychać, tę wiadomość, ale już
to robię. Pierwsza wpadka
w audycji. Mała
na szczęście jeszcze do dostępności
nawiąże. Odkryłem takie ciekawe zjawisko
w voice-overze. Może ktoś
testując betę spotkał się z tym zjawiskiem.
Ja testowałem betę na iPhonie SE
2020. Zjawisko polega
na tym, że voice-over odczytuje nam w nietypowy
sposób godziny od tej do tej
pisane po myślniku lub cyfry
np. tam 50-30
pisane razem po myślniku.
A jest to np. tak, mamy jakąś tam przykładową wiadomość
i brzmi ona tak. Czytana przez voice-over
Serdecznie zapraszamy Was na warsztaty
w godzinach od 9-30
break time znak równości 209ms
większe niż 11-30. I tak samo jest
z cyframi pisanymi po minusie
np. 60-40
to mówi 60 break time
znak równości 209ms większe niż
60-40
Ooo, tagi się wysypały w sensie
Tak, ja potwierdzam, no
To są bety, właśnie miałem to samo powiedzieć
nic dodać, nic ująć właśnie
Wszyscy wiemy jakie są dokładnie przerwy
Tak, tak, dokładnie
co tam jest wstawiane
Dobrze, etykiety dostępności były, ale to jest dopiero
połowa tutaj rzeczy związanych ze dostępnością
które mamy rozpisane. Następnie mamy
coś co pewnie bardziej przyda się osobom słabowidzącym
mianowicie jest to aplikacja Accessibility Reader
i ja bym to nazwał po prostu takim trybem czytania
ale dla dowolnej aplikacji
czy nawet też świata, bo to też działa np.
w aplikacji Lupa, czyli jak zrobimy jakieś zdjęcie
czyli otwieramy jakiś artykuł np. w jakiejś aplikacji
po prostu nawet Safari
chociaż Safari ma swój tryb czytania, więc niech to będzie jakaś aplikacja
i ten artykuł jest dla nas bardzo nieczytelny
jakieś animacje, jakiś reklam, tekst jest po prostu niewyraźny
możemy sobie ten Accessibility Reader
wywołać, on po prostu weźmie zawartość
ekranu, która jest tam widoczna
i otworzy ją w takim dedykowanym trybie czytania
i podobnie jak w tym trybie Reader mamy po prostu
cały rozbudowany wakle rzeczy, które możemy sobie
pozmienić, czcionki, kolory, tło
motywy i tak dalej, mamy też z tym zintegrowaną
syntezę, możemy sobie po prostu ten materiał
też przeczytać syntezą
no i to po prostu faktycznie działa w dowolnej aplikacji
na stronach internetowych i nie tylko tak sobie możemy
tekst przenieść z takiego
lepszego trybu czytania. Następnie
dźwięki tła, czyli no właśnie funkcja, która nam daje
różne dźwięki tła, czy to właśnie jakieś wodospady
czy to jakieś ognisko, jakiś deszcz
została rozbudowana i to dosyć znacząco, bo
mamy teraz w niej korektor, możemy sobie ten dźwięk jeszcze
bardziej dostosować, jakby np. nas denerwowały
niskie albo wysokie częstotliwości, można je sobie
dostosować, można też tym sterować
skrótami, można chyba jakieś
usypianie też ustawić, ale też zostało
dodane bardzo dużo nowych dźwięków i tutaj
z strony iMagazine
dowiedzieliśmy się, że lista jest imponująca, bo tam
tych dźwięków na początku faktycznie nie było dużo, bo
no właśnie było to ognisko, był deszcz, był jakiś strumek
i były jakieś chyba ocean
i chyba biały szum i to było wszystko. A teraz
został dodany gwar,
para, samolot,
łódź, autobus, pociąg
i deszcz na dachu
oraz cicha noc. Domyślam się, że tutaj nie chodzi o kolędę.
Także tych dźwięków jest coraz więcej
i tutaj znów Sherlock się kłania
trochę, bo trochę takich aplikacji jest, które nam pozwalają
różne takie tła dawać, no i można by
wcześniej powiedzieć, że w tego
wojły się do tej pory, czy w innych systemach zresztą też było,
bo to jest tak naprawdę wszędzie dostępne, na Macu też i na iPadzie
nie było jakoś dużo, to teraz ta lista jest
całkiem sensowna. Takie najczęściej
chyba używane dźwięki
się pojawiły, więc
coś czuję, że więcej osób będzie
z tej funkcji mogło korzystać, zwłaszcza, że ona jest też bardzo
konfigurowana, bo też można ustawić, żeby te dźwięki
włączały się tylko jeśli ekran jest odblokowany, tylko jeśli
nic nie jest odtwarzane, więc można sobie ustawić tak, że jeśli
nic nie leci, no to tam coś słyszymy w tle,
ale jeśli włączymy sobie jakiś materiał, no to
ten dźwięk może się wyłączyć albo nie,
więc tam opcji konfiguracyjnych tego też jest
całkiem sporo. A propos tego dźwięku tła
cicha noc, to nie, to zdecydowanie jest kolęda.
To jest jakby
troszeczkę kopia tego dźwięku noc, który był,
tylko że te świersze są znacznie cichsze
i z mniejszą intensywnością nadają, tak że
cała magia cichej nocy to jest jedno.
A odnośnie tego ridera, jeszcze nawiązując,
to w dostępności Czytaj i Mów
on się znajduje i na iPhone’ie został bardzo
śmiesznie przetłumaczony, bo został przetłumaczony na polski jako
Lektor w nawiasie Dostępność. Na Macu to się nazywało
ładnie Reader, natomiast na iPhone’ie Lektor
w nawiasie Dostępność, tak że jakby ktoś tego szukał, to to jest to.
Z ciekawości, czy ten reader jest też
w Liquid Glass z przezroczystym tekstem?
Przepraszam, dzisiaj się mnie czarny humor trzyma.
Nie wiem, natomiast
autoodtwarzanie póki co jeszcze nie działa,
znaczy autoodtwarzanie chyba w trybie reader. Nie wiem,
czy to ma być, właśnie, czy to też ma być w
safari w trybie reader, a powiedzmy wtedy np.
dany artykuł by się odtwarzał automatycznie. Ciekawe.
To byłoby fajne. No, natomiast nigdzie tego
szczerze mówiąc nie mogłem znaleźć. Na iPhone’ie
mimo włączenia tej opcji nie ma, nie daje
to efektu, a na Macu cały czas ten przełącznik
jest wyłączony i co by człowiek nie robił póki co, wiadomo,
to jest pierwsza beta. No, nie zmienia się
jego stan, więc ciekawe. Na iPhone’ie to jest pod
trójklikiem się dodaje.
Więc ciekawe. A co do wyglądu tekstu też jest…
I też o tyle jest to
spoko, że
dawniej mieliśmy tak, że jak jest ten trójklik
skrót dostępności, to nie było
nijak czytane w sumie, jeżeli jest zapytaj
i tych funkcji mamy dodanych więcej, a teraz
jeżeli położymy palec na ekranie i będziemy nim suwać w górę
lub w dół, to domyślny głos
systemowy będzie nam oznajmiał jaką opcję mamy dokładnie wybraną
pod palcem, to znaczy jaka jest
w tym trybie właśnie eksploracji
i jeżeli sobie w nią pukniemy, to wtedy ta funkcja dostępności nam się włączy.
Także to też jest fajny
dodatek. Aha, i błąd
polegający na tym, że jak mamy to włączone,
ten accessibility reader,
to w aplikacji mail, swoją drogą, jak chcemy skopiować
wypowiedź do schowka, cały voiceover nam się crashuje także.
A jak się wyłączy, to… Tak jak wspominałem, to jest beta pierwsza,
więc tutaj różne rzeczy się mogą
dziać. A propos takiego menu
dostępności, w sumie o tym zapomniałem dodać
do notatek, a Apple też to promowało i to jest też, myślę,
całkiem fajna sprawa. Będziemy mogli
nasze opcje dostępności przenosić
między urządzeniami. Jeśli np.
pomagamy komuś tymczasowo w
konfiguracji np. iPhona, albo jesteśmy
w miejscu, gdzie np. jakiś iPad jest używany
jako kiosk, to się zdarza.
W liniach notniczych często jest tak, że ten ekran pokładowy to jest tak naprawdę
iPadem, chyba jakiś Quantis
australijski tak miał. Może też
jakieś inne linie tak pracują. No to w takich
sytuacjach będziemy mogli sobie po prostu iPhona przyłożyć
z odpowiednią funkcją aktywowaną
i nasze wszystkie ustawienia dostępności tymczasowo
przetransferować na to urządzenie.
Więc całkiem fajna rzecz. VoiceOver na Macu ma takie
przenośne ustawienia, czyli nie musimy
na pendrive’a kopiować VoiceOvera na Maca, wiadomo,
to chociaż możemy ustawienia nasze VoiceOvera sobie tymczasowe skopiować
na pendrive’a, a na iPhonie to nie ma pendrive’a,
tylko po prostu bezprzewodowo to jest
z jednego urządzenia na
drugie przekazywane.
Ale tutaj jest ciekawe, że w tych ustawieniach właśnie
a propos udostępniania ustawień dostępności,
też je możemy w sumie zsynchronizować sobie z iCloudem,
więc ciekawe, czy wtedy na kolejnym
naszym urządzeniu podpiętym do Apple ID, ono się
będzie pytało podczas konfiguracji, czy takowe ustawienia zaimportować
i tak dalej, bo skoro opcja jest, no ciekawe, i czy to też
będzie współgrało w sumie z Maciem,
akurat tam nie sprawdzałem, czy to jest dostępne i
na iPhonie mi się to bardzo rzuciło, że można
taką synchronizację w iCloudie włączyć.
Mówicie, że tymczasowo te ustawienia można przekazać
na inne urządzenia i można je potem jakoś szybko wykasować?
Nie wiem, jak to działa w praktyce, ale
przepuszczam, że jeśli włączymy voiceover’a,
to po prostu go możemy jakoś wyłączyć z powrotem.
Tak, bo w sensie tak, iPhone, który był skonfigurowany wstępnie
bez voiceover’a, nie ma domyślnie włączonego
przycisku dostępności. Tak zakładam.
I teraz my przekażemy nasze ustawienia
dostępności jakiemuś losowemu urządzeniu, które chcemy
przez pięć minut posupportować. Zrobimy tam
kompletny kipisz, bo się włączy voiceover, ustawiony na
konkretną syntezę, która nie wiem, czy on dociągnie na przykład jakąś
zośkę ekstra z chmury, znaczy na szybko
dociągnie ją z tego, czy ją prześlę z tego telefonu?
Czy takich ustawień nie rusza? Nie wiem.
Przypuśćmy, że jakieś nasze nawet słowniki, już zakładam
taką opcję hardkorową, tak, że wszystko. Jak wszystko, to wszystko.
No ale przypuszczam, że jednym z naczelnych ustawień, które to
przestawi, jest przycisk dostępności. I nie wiem, czy bym chciał
komuś, komu tylko udzielam wsparcia przez pięć minut,
zostawić po sobie przekonfigurowaną
jedną z opcji, którą ta osoba potencjalnie może sobie przez przypadek włączyć.
Więc pytanie, czy można
te ustawienia, tak łatwo jak się je wrzuciło, tak łatwo
je też wykolegować, po prostu
ich się pozbyć i żeby ich nie było.
Ja myślę, że to Apple
jakoś się przemyślało. Ja nie mam drugiego urządzenia
z iOS 26, żeby to sprawdzić,
natomiast myślę, że może będzie jakieś powiadomienie,
coś, co pozwoli nam szybko do stanu
pierwotnego te ustawienia przywrócić, może znów przez
przełożenie tego urządzenia. Nie wiem.
Na pewno im będziemy bliżej tej
finalnej wersji systemu,
no to pewnie już to będziemy mogli
więcej przetestować. Ja myślę, że to będzie na tyle przemyślane, że takiej
sytuacji nie będzie. Takie mam nadzieję, że może będzie.
Można ustawić, co dokładnie ma być przeniesione, czy na przykład
właśnie ten skrót dostępnościowy też czy nie
i w ten sposób będzie można to jakoś dostosować.
No bo tak jak mówisz, myślę, że
Apple by chyba już tak tego nie…
Bo dobrze kojarzę, że urządzenia, bo jakby
na Androidzie jest po prostu tak, że ten skrót dostępności działa zawsze
na tych urządzeniach, na których on działa.
Natomiast pytanie na iPhonie, jeżeli nie skonfigurowaliśmy wstępnie
voice-overa ani żadnej funkcji dostępności, to przycisk dostępności
jest po prostu domyślnie wyłączony. Czyli mogę sobie naciskać
po przycisk boczny dowoli i nie stanie się nic.
No chyba, że Siri poproszę. No mogę też Siri
poprosić czyjąś, żeby włączyła voice-overa,
no co miało różny skutek, bo już kiedyś pomagałem komuś,
który miał ustawionego voice-overa na hiszpański. Znaczy nie,
Siri. Tam za bardzo się nie wykaże.
Ale no okej, czyli w takiej sytuacji
rzeczywiście można przekazać te ustawienia.
No i to były ustawienia, a też
z takich drobnych zmian dostępności funkcja
haptyka muzyki została trochę ulepszona. Teraz możemy
sobie dostosować osobno
głośność
intensywność tej haptyki, to po pierwsze,
ale też możemy zdecydować, czy haptyka ma nam pokazywać
cały pełny miks lub tylko
wokale. Mi tutaj bardzo brakuje jeszcze trzeciego
trybu, gdzie na przykład będzie nam przekazywana tylko perkusja trochę.
Ale no chyba nie jestem też główną
głównym celem tej funkcji,
więc no generalnie można to sobie lepiej dostosować.
Muzyczka na podgląd się też zmieniła, no jak tutaj mamy osobny suwak
do wokali, to teraz mamy piosenkę, która faktycznie wokale ma.
Całkiem przyjemna.
Może warto wspomnieć od razu przy okazji, skoro już mówimy o haptyce,
chyba, że chcieliście o tym później wspomnieć albo w ogóle,
o tym, że został opublikowany
przez Apple pierwszy zwiastun filmu taki
haptyczny, filmu Formuła 1,
w którym wykorzystano haptykę i w momencie,
kiedy w zwiastunie pojawia się ryczący
motor silnika bolidu, no to też
jest to przy akompaniamencie naszej
haptyki wibracyjnej w telefonie.
Muszę jeszcze zobaczyć sobie ten zwiastun. Swoją drogą,
to do tego w bety nie trzeba, także wystarczy, że otworzycie sobie
aplikację Apple TV, chyba to tam jest jako
osobny zwiastun. I to muszę
sobie sprawdzić, bo to jest ciekawe użycie
tego systemu haptycznego na
iPhone’ów.
Następna taka ciekawa nowość,
funkcja w rozpoznawaniu imienia. To jest znów coś,
co niestety nie pokaże nam się, jeśli mamy
język polski ustawiony, niestety, bo wtedy po prostu mamy
cały czas rozpoznawanie dźwięku, natomiast mamy też właśnie rozpoznawanie
imienia. No i to działa tak, jak
tutaj można się domyślić, czyli możemy sobie
dodać jedno lub więcej imion, uczymy system wymowy
i jeśli system wykryje,
że ktoś nas zawoła, no to po prostu
dostajemy powiadomienie. I to jest
oczywiście też funkcja stworzona głównie dla
osób z dysfunkcją słuchową,
ale ja myślę, że to jest coś, co może przydać się nie tylko
takim osobom, bo nie wiem, czy wam się też zdarzyło
wiele razy taka sytuacja, że słuchacie czegoś głosno
w słuchawkach, nie słyszycie, co się dzieje wokół, a ktoś nas woła
na obiad na przykład albo w innej sprawie.
Ja kojarzę, że to był kiedyś patent Apple’a w ogóle, że oni mieli opatentowane to
jakieś już kilka lat temu. Mówiłem o tym w Tyslop w Czerlondzie,
że gdzieś ktoś odkrył jakiś patent, że patent
jest zarejestrowany w nie wiem, w amerykańskim pewnie są,
nie znając życia, na właśnie jakiś
taki, na taką funkcję, tylko mi się wydawało, że to miało być
jakoś w AirPodsach zintegrowane, tak wynikało z tego
patentu, że to AirPodsy miały taki jakiś, nie wiem,
system czy te mikrofony AirPodsowe były do tego potrzebne,
no ale fajnie widzieć takie rzeczy z opóźnieniem wprowadzone.
Może ta funkcja dostępności, którą mamy teraz,
to jest właśnie preludium tego, co będzie w AirPodsach kiedyś.
No powiedzieć tak, na tym sprawdzą, zbiorą więcej danych,
ewentualnie, żeby to jeszcze poprawić i potem udostępnią
jako taką szerzej dostępną funkcję.
No, swoją drogą, skoro mówimy o takich rzeczach, no to
taka ciekawostka. Opisy zdjęć, które dostajemy
od voice-overa przez tą funkcję opisywania
obrazków, no niestety nie po polsku znów,
te same opisy są też wykorzystywane przez Siri.
Jeśli mamy ustawione, żeby Siri czytała
SMSy przychodzące i ktoś nam wyśle zdjęcie,
no to Siri powie na przykład właśnie, że
Piotr wysłał ci zdjęcie, które przedstawia
na przykład pieska leżącego na
trawie na przykład. Więc no też
najpierw to było stworzone dla nas, ale też
Apple znalazła tego zastosowanie takie bardziej
uniwersalne dla
wszystkich. Z takich
bardzo przyszłościowych funkcji, no tutaj mamy
kilka rzeczy związanych z motoryką, m.in.
zostało rozbudowane sterowanie
iPhone’em oczema
oraz sterowanie głową, które jest chyba
zupełnie nowe, czyli właśnie poprzez
mrukanie w odpowiedni sposób, patrzenie na przycisk, który
ruchem głową możemy różne rzeczy
w systemie uaktywniać i to
też po prostu używając kamery iPhona. Bardzo
fajna sprawa, nie wiem, czy jakiś android też jakiego potrafi,
myślę, że to może być bardzo przydatne dla ludzi, którzy
tego typu funkcji potrzebują.
A już bardzo patrząc do przyszłości,
to Apple jest pierwszą firmą, która na poziomie systemu operacyjnego
dodała do systemu wsparcie do czegoś,
co się ładnie nazywa BCI, Brain Computer Interface,
czyli obsługa, jak to napisałem, obsługa iPhone’a
mózgiem dosłownie, myślami.
To już jest gdzieś pomału testowane, jakieś urządzenia są testowane, no i iOS
i chyba macOS zresztą też będą jednymi z pierwszych
systemów, które na takie rozwiązania będą gotowe
i z pewnością to też w przyszłości wielu osobom pewnie
znacznie pomoże w korzystaniu
z ich urządzeń.
I ostatnia nowość, też coś,
czego po polsku niestety nie poużywamy,
można po hiszpańsku teraz jeszcze a propos takich nowości.
Tworzenie indywidualnych głosów zostało trochę
poprawione, bo kiedyś
to wyglądało tak, że musieliśmy nagrać około,
nie pamiętam teraz, 50 albo 100 fraz.
Generalnie to wychodziło, że to było około 15 minut nagrań.
Teraz wystarczy, że nagramy fraz 10,
to nam zajmie około minutę, no może kilka minut,
jeśli coś będziemy chcieli przeczytać kilka razy.
Po czym system nam głos
nie będzie generował 24 godziny, podczas której
telefon musi leżeć podpięty do ładowarki i być zablokowany,
bo jak tylko go ruszymy, to to się zatrzymuje.
A teraz to trwa minutę lub dwie, coś koło tego.
I głos, który z tego wyjdzie,
jest lepszej jakości.
Z tą jakością mam wrażenie,
że mój nowy głos, który wyszedł,
teoretycznie nagrany w lepszych warunkach niż ten pierwszy,
przypomina mnie mniej.
Natomiast słyszałem przykłady,
taki pierwszy przykład to jest głos Jakoba Razina,
który podzielił się na Macedonię, jak jego głos wyszedł,
jak on to testował, to jego ten nowy głos wypadł całkiem fajnie.
I ten nowy model faktycznie…
Ta jakość jest naprawdę imponująca, zwłaszcza biorąc pod uwagę,
jak przypominam, to jest zrobione zupełnie na urządzeniu.
To nie jest nigdzie wysyłane do chmury
i po prostu możemy sobie później z tego głosu korzystać.
On ma opóźnienia i to dosyć duże,
nawet w porównaniu do tego pierwszego modelu.
Ale kurczę, no działa i to faktycznie słychać,
że to brzmi trochę lepiej.
Czy coś pominąłem odnośnie dostępności iPhone’a?
Bo wiem, że tutaj ich schodziły inne systemy, to jeszcze trochę rzeczy jest,
ale to myślę, że do tego wrócimy.
I mam jeszcze komentarz od słuchacza.
Kolejne wieku błędy dziecięcego
iOS 26, przynajmniej na iPhone’ie
SE 2022
ma poważne problemy z ładowaniem,
a raczej z jego wskaźnikiem.
Otóż problem polega na tym,
że gdy podłączamy telefon, który ma 33%
przez kilka sekund,
iPhone pokazuje, że trwa ładowanie,
następnie, że ładowanie nie odbywa się,
a w rzeczywistości telefon się ładuje.
Telefon dobija sobie do tych 100%, ale my o tym nie wiemy,
ponieważ telefon pokazuje 33%,
jak nawet bateria została naładowana.
W 80% nie podłączono do ładowarki,
żeby nam pokazał rzeczywisty poziom baterii,
musimy go wyłączyć i włączyć jeszcze raz.
Tak, pierwsza beta z resztą…
No tak, że jeśli wiemy, co robimy i chcemy testować,
to trzeba na to być przygotowanym.
Ja, co ciekawe, tego błędu nie mam.
Natomiast odnośnie tego głosu indywidualnego,
no to zobaczcie, jak to się fajnie wszystko usprawnia.
Na początku właśnie było to 150 fraz
i ja to próbowałem wtedy testować, nagrywać się.
To było dla mnie duże wyzwanie, jeśli chodzi o język angielski
i tę barierę. Potem tego nie testowałem,
bo tam było tych zdań takich skomplikowanych,
gdzieś do przeczytania trochę, dla mnie przynajmniej.
A teraz może ja się nawet skuszę, żeby przetestować,
bo skoro to ma trwać około minuty i tych fraz ma być tylko aż 10,
no to w sumie czemu nie?
A może nawet po hiszpańsku?
Paweł, jeszcze coś chciałeś dodać?
Ja pytałem, Magic Tapa wspomnieliśmy, tak?
Tak.
I jeszcze…
Jeśli macie jakieś spostrzeżenia, tak jak tutaj słuchacze piszą,
to oczywiście możecie się z nami kontaktować,
na czacie pod transmisją na YouTubie
lub przez WhatsAppa, zarówno możecie dzwonić albo nagrywać się
663-883-600.
A my cały czas mówimy o konferencji WWDC
i cały czas zostajemy przy iPhonie,
bo tutaj mam taką kategorię, inne ciekawostki,
bo takich drobnych zmian w systemie było więcej, które ludzie odkryli.
Pierwszą nowość zaspojlerował nam Paweł na samym początku,
bo to jest wiadomość z dnia.
Ale przypomnijmy.
Można zaimportować teraz dzwonki
za pomocą normalnie arkusza udostępniania.
Czyli tak jak kiedyś trzeba było się naprawdę namęczyć,
żeby sobie zaimportować własny dzwonek do iPhona,
bo kiedyś to w ogóle trzeba było podpiąć telefon do komputera
i iTunesem wgrać mały plik,
który uprzednio oczywiście przygotowaliśmy.
Ścięty na maksymalnie 40-30 sekund.
M4R, czyli konwertować sobie z dowolnego formatu do M4A,
zmienić rozszerzenie na M4R,
wrzucić iTunesem. Potem Apple to delikatnie uprościł,
wprowadzając taki krok, że można przez GarageBand,
przez aplikację GarageBand i przyciąć
i sobie ten dzwonek wyeksportować jako projekt
i zaimportować jako dzwonek.
No to teraz już nie jest nic
z tych rzeczy wymagane, bo dowolny plik audio,
rozumiem, że musi być nadal tej długości, która jest
żądana. 30 sekund maksymalnie. Tak.
Może zostać normalnie przez udostępnianie, czyli
w danej aplikacji, w której ten dzwonek, nie wiem, dostaliśmy
Whatsappem, wycięliśmy go sobie tą aplikacją
Music to Ringtone, którą kiedyś też pokazywałem w ramach tych doprzeglądów,
czy, nie wiem, ściągnęliśmy z internetu,
na przykład z kolekcji PhoneTones. Polecam.
Dużo dzwonków w PhoneTones jest.
To można od razu,
tam gdzie się pokaże otwórz za pomocą, czy tam udostępnij,
wybrać, rozumiem, że tak jest, bo nie mam wersji testowych,
opcję jako dzwonek.
I to nie trzeba już nic konwertować, zmieniać rozszerzeń.
Dowolny plik audio, który ma tą
konkretną długość, będzie miał tą opcję,
żeby sobie z niego zrobić po prostu od razu dzwonek.
Szkoda, że tak nie jest.
Dowolnego formatu, który iOS wspiera, tak.
To jest super.
MP3 było testowane, FLAC był testowany, WAVE.
Więc…
Pytanie tylko teraz brzmi, dlaczego nadal nie możemy
ustawiać własnych dźwięków powiadomień na różne aplikacje?
To dlatego mi brakuje.
Mi też, bo mam po cichu nadzieję, że to z beta 1
jeszcze pewnie będzie 7-8 beta.
No, może to jeszcze raz i dotrze.
To byłoby…
Albo 27, iOS.
Albo 27, tak. Albo 28, ale 27 byłoby fajnie, albo jeszcze 26.
Z hackiem, może z jakąś cyferką po kropce w sumie.
Ale to jest
zdecydowanie coś, co mnie też osobiście
bardzo cieszy, nie tylko mnie.
Zostaniemy przy tematach okołodźwiękowych, bo…
też stało się coś, czego
się w sumie spodziewałem, bo kiedy pojawił się
iPhone 16, to cała seria 16, zarówno
o 16 Pro i tak dalej.
Apple mówiła o tym przypadku iPhone 16 Pro, natomiast okazało się, że nawet
16e też tak potrafi. Chwalili się tym, że
iPhony teraz potrafią nagrywać dźwięk przestrzenny.
Do czego jest to potrzebne? Na przykład do tego, jak ktoś sobie robi
zdjęcia 3D na Vision Pro,
gdzie możemy rozglądać je po całym zdjęciu
i byłoby fajnie, gdyby dźwięk też to odpowiednio
przechwytywał, żeby dźwięk był też nagrywany
w 360 stopni wokół nas, że możemy
też po tym nagraniu się rozglądać.
Też to pozwalało na to, żeby
mawicie takim mixem kinowym,
jak to się nazywało, Cinema Mix, chyba tak się nazywała ta funkcja
i tam możemy zdecydować, czy mają być uwypuchlone
dialogi, a tło ma być ściszone, albo
właśnie na odwrót podgłośnione, ma być taki mix faktycznie kinowy
albo różne kombinacje, tam można sobie te poziomy
dowolnie ustawiać. No i słuchajcie,
deweloperzy właśnie też do tych funkcji dostali
dostęp, więc już nie tylko o nagrywaniu
wideo, ale też podczas nagrywania
audio, deweloperzy mogą teraz
nagrywać dźwięk w tak zwanym formacie
Ambisonics. I coś czuję, że tutaj
wiele osób może się teraz tym znacznie interesować,
wcale by mnie to nie zdziwiło, bo
to bardzo trudno
wytłumaczyć, ale generalnie w dużym uproszczeniu, no bo te iPhone’y nowe
zwłaszcza te 16 Pro, chyba on ma cztery mikrofony
i ten format właśnie wygląda tak, że mamy nagrywanie
czterokanałowe, czyli to jest, no nawet
chciałem powiedzieć stereo na sterydach, ale to właśnie już nie jest stereo, to jest czterokanałowy
dźwięk. Ja może to spróbuję wytłumaczyć. No jasne.
Ambisonic to jest, to
rzeczywiście to jest dźwięk czterokanałowy,
przy czym każdy z tych kanałów, może nie to, że
reprezentuje konkretny wymiar, tylko
nie wiem, czy kojarzycie, są czasami takie
jakby kotwice, które mają cztery
ramiona pod kątem
albo takie gwiazdki czteroramienne do
rzucania czy do czegoś, że zawsze jest powiedzmy
jedno ramię pionowo w górę i reszta jest tak trochę w dół.
I niezależnie od tego, jak się tym
jakby, które te ramiona będą w dół, no zawsze
jedno będzie pionowo w górę. Nie wiem, czy kojarzycie coś takiego.
W każdym razie te mikrofony jakby w takim
oryginalnym, w oryginalnej konfiguracji są
mniej więcej podobnie ustawione. To znaczy one są
rzeczywiście jakby pod kątem, pod równym
kątem, ale jakby w 3D, w przestrzeni 3D,
żeby one tworzyły właśnie taką kotwicę. W iPhone’ie
oczywiście tego się zrobić nie da, bo iPhone jest
płaski. Niemniej, no dąży się
teoretycznie do czegoś takiego. I teraz
myk polega na tym, że każdy z tych
mikrofonów jest nagrywany do osobnego kanału i potem są
specjalne procesory dźwięku, które
no te wszystkie kanały jakby umieszczają odpowiednio
w przestrzeni i generalnie
między innymi system Dolby Atmos
i inne podobne, chociaż Dolby Atmos jest chyba najbardziej popularnym
w tej chwili. Umie sobie przekonwertować
dźwięk Ambisonic do dowolnego formatu
tam 5, 1, 7, 1 czy
jakichś bardziej przestrzennych formatów. W każdym razie
upraszczając rzecz, chodzi o
rejestrowanie dźwięku wielokanałowego, ale nie tylko
w dwóch wymiarach, prawo, lewo, przód, tył, tylko w trzech
wymiarach, prawo, lewo, przód, tył, góra,
dół. No i może brzmieć to
bardzo ciekawie. Widziałem już
jakieś sztyczki VST, które potrafią konwertować
na przykład taki dźwięk
ambisoniczny
do formatu binauralnego. Różnie to wychodzi, czasem
lepiej, czasem gorzej. Natomiast
ja mam taką trochę cichą nadzieję, że będzie się
dzięki temu dało troszeczkę
poprawić stereo w tym
iPhonie. Czy tak istotnie będzie, tego
nie wiem, ale pewna szansa istnieje.
Tak, więc no, co nam na pewno to pozwoli,
to tak jak w kamerze mogliśmy się właśnie w tych nagraniach
obracać gumą, jeśli mamy AirPodsy, no to tutaj też będziemy
tak mogli robić, ale właśnie też te nagrania będzie można
przystosować do różnych formatów, czy to właśnie
do dźwięku binauralnego, do odsłuchu na słuchawkach,
ale też właśnie do różnych formatów kina domowego
i może właśnie do innych ciekawych
zastosowań. Także to znacznie
może spowodować, że iPhone stanie się jeszcze bardziej sensownym
rejestratorem, bo bardzo jest to
możliwe. Jestem ciekawy, jak to wyjdzie.
Mamy komentarz, też od
tego samego użytkownika, podpisującego się jako
głośnik JBL.
Tak, ten ekran faktycznie był przebudowany,
to prawda, i z taką najciekawszą nowością, jeśli o ten ekran
chodzi, jest to,
to też znów powiedzą, oj, na Androidzie to mieliśmy
od wieków. System nam będzie pokazywał, ile czasu
zajmie na ładowanie baterii. To będzie też brało pod uwagę to, z jakiej
ładowarki korzystamy, czy to ma być na ładowanie do 80%,
czy to pełna. No generalnie na ekranie blokady
to się na chwilę wyświetli i też właśnie w tych ustawieniach
baterii, jeśli telefon jest podłączony do ładowarki,
no to ta informacja się nam
też wyświetli.
Mało tego, jeśli będziemy mieli
ładowarkę, powiedzmy dosyć słabą, na przykład pięciowatową,
no to też zostaje nam wyświetlona sugestia, informacja, żeby podłączyć
może szybszą i tak to jeszcze.
To też myślę, że przydatna informacja, jakby ktoś nie wiedział.
Jeśli jesteśmy przy wątkach dźwiękowych,
to myślę, że możemy zahaczyć o AirPodsy jeszcze
na moment, chociaż to Apple omówiło w przypadku iPada,
ale no właśnie, nie tylko
ambisonik, ambisonik właściwie chyba to się nazywa,
jest taką nowością związaną z
nagrywaniem, bo okazuje się, że AirPodsy też
dostaną jakiś nowy tryb studijny, jak to
nazywa Apple. I do tego też deweloperzy dostaną
dostęp, to będzie wspierane na AirPodsach,
które mają chip H2, czyli to są
AirPodsy Pro drugiej generacji i to są to AirPodsy cztery,
zarówno te z aktywną redukcją i bez,
bo one są w dwóch motorach dostępne. No i w przypadku obu tych urządzeń
system będzie mógł
wykonywać nagrania
na AirPodsach w wyższej jakości niż
na którą zazwyczaj pozwala Bluetooth. Tutaj było powiedziane, że jest to
48 kHz, więc
jestem bardzo ciekawy, jak to będzie działało w praktyce.
Jeszcze nie udało mi się tych AirPodsów zaktualizować, ale
na pewno to jest też coś, na co ostrzę sobie zęby.
Jestem ciekawy, czy to jakkolwiek pomoże
w zrobieniu z AirPodsów bardziej sensownych mikrofonów.
One nie są złe, żeby nie było, ale do takich sytuacji, gdzie
np. jak tutaj prowadzimy podcast,
to przez to, jak agresywnie ten dźwięk
jest odszumiany, a tutaj mówi się o tym, że
to ma pomóc np. osobom, które gdzieś nagrywają dużo materiałów
wideo, że ten dźwięk ma być taki podobny
jak do mikrofonów, które się przypina do
ubrania np.
Zobaczymy, jak to będzie brzmiało w praktyce.
Zostało zapowiedziane, że
deweloperzy też będą mogli z tej funkcji
korzystać i na AirPodsach też będzie można
uruchamiać lub zatrzymywać nagrywanie w różnych aplikacjach,
ściskając te AirPodsy, także to też zostało
zaimplementowane.
Zostając w klimatach deweloperskich, też kolejne
API, które zostały dodane. Ciekawe, jak to będzie zastosowane.
Ja tutaj widzę potencjał dla jakichś aplikacji asystujących.
API do OCR
w systemie jest teraz w stanie wykrywać tabele i
listy. I normalnie deweloper może uzyskać informacje
o współrzędnych, ile wierczy, ile kolumn ma jakaś tabela
no i później to jakoś
wykorzystać do przetwarzania informacji lub do wyświetlenia tego
dla użytkownika. Myślę, że to może nam się
przydać w aplikacjach
zastosowaniach nawet dostępnościowych. Zobaczymy.
Następnie podcasty.
W podcastach ucieszą się osoby, które lubią
słuchać szybko, bo można teraz w aplikacji
podcasty tej oficjalnej podkręcać szybkość
aż do trzech razy szybciej. Wcześniej chyba maksymalnie to było dwa.
Ludzie prosili, żeby było więcej.
Teraz jest więcej. Została również dodana funkcja
wzmacniania dialogów, też coś, co znają
użytkownicy overcastów, castr
i innych tego typu aplikacji.
I jeśli macie założone słuchawki
AirPods i słuchacie jakichś podcastów
w łóżku, no to aplikacja ponoć będzie w stanie wykryć, kiedy zaśniemy
i to odtwarzanie nam automatycznie zatrzymać.
Mówiło się, że coś takiego może się pojawić.
Mówiło się o tym, miałem wrażenie, bardziej w całym systemie,
a tutaj okazuje się, że na ten moment…
Czemu tylko podcasty? No bo na przykład
deweloperzy powinni mieć też do czegoś takiego dostępu. Ja bym chciał
na przykład sobie jakieś radio, żeby mi tak się zatrzymało, albo
książka audio, książka YouTube.
A nawet jeśli nie, to inne natywne apki od Apple, prawda?
Które by to mogły wspierać, typu muzyka czy książki, gdzie audiobooki
też są dostępne, prawda? Odnośnie jeszcze AirPodsów, pozwolę sobie
wtrącić. Teraz, a propos aktualizacji,
możemy zaktualizować te AirPodsy
do tej wersji beta, tak naprawdę,
z poziomu ustawień samych słuchawek. No, wcześniej
podpinanie do komputera przez Xcode, jakieś tam kombinacje,
a teraz po prostu włączamy sobie jeden przełącznik
w ustawieniach pod nagłówkiem,
mamy możliwość właśnie włączenia sobie tej opcji,
jak również na dobrowolne zgodzenie się,
żeby Apple’owi zostały
przekazywane, zostawały przekazywane
logi, dzienniki diagnostyczne z używania naszych słuchawek.
Także ja myślę, że to też może jakoś tam pomóc,
zwłaszcza jeśli chodzi o tego voice-overa,
który, jeżeli źródło dźwięku,
jeżeli nie jest muzyka żadna odtwarzana,
to ten voice-over tak się niekoniecznie chce przełączać, na przykład, prawda,
z Maca na iPhona, więc może to też gdzieś tam zostanie wychwycone
w przyszłości. To jeszcze a propos AirPodsów, tak przeglądając
na naszą listę, to też jest gdzieś bliżej końca
tej listy, ale teraz też będziemy
zarówno na iPhone, jak i na Macu dostawać powiadomienia
o stanie baterii AirPodsów, czyli kiedy one będą już pełni naładowane,
tak jak z Watchem teraz AirPodsy też nas będą odpowiadać,
oraz w momencie, kiedy ich poziom
baterii będzie niski. Mam nadzieję,
że to też będzie dotyczyło etui,
bo ja akurat…
jednym z powodów, dlaczego zdecydowałem się przerzucić się na AirPodsy Pro
drugiej generacji, to właśnie to, że one mają ten głośniczek i on
faktycznie mówi mi, kiedy ten poziom baterii jest niski,
ale dla tych, którzy mają AirPodsy, które nie mają
tego głośniczka w etui, no to może być bardzo
przydatne, bo mi się parę razy zdarzyło zapomnieć, jak wcześniej miałem
pierwsze AirPodsy drugiej generacji.
To tak naprawdę chyba tylko AirPodsy czwórki bez ANC, które głośniczka nie mają,
to ewentualnie, no bo te z ANC już też mają głośniczek w etui
także to i te dwójki, więc chyba przy 30%
nawet to się ten, ten, ten, ten, ten, wyzwalał ten dźwięk.
A teraz jakby rzeczywiście było również o etui
i jeszcze nie miałem okazji sprawdzić.
No ja widziałem powiadomienie o pełnym naładowaniu,
co tak to faktycznie działa.
O baterii już mówiliśmy, o elektrach pogodowych
na podróży też już mówiliśmy. Chociaż o tej baterii?
No. Chociaż o tej baterii, tylko nie wiem właśnie, czy to ma być
zarządzane przez AI i o iPhone’y
15 Pro wzwyż. W każdym razie ten
adaptacyjny tryb, jak to tam się nazywało?
Zużycie energii? Czy coś takiego? Że, że też ma to być
jeszcze lepiej zarządzane i tryb
niskiego zużycia energii ponownie jak sobie zażyczymy to automatycznie
już bez bawienia się w automatyzację w aplikacji skróty
można się automatycznie włączać poniżej 20%
a wcześniej jakby
nie wiem, czy iPhone zdaje się też się ma uczyć
jakby naszego sposobu używania, powiedzmy czego używamy
i jakby ta zużycie aplikacji
działanie w tle i tak dalej ma być jeszcze bardziej ograniczane
w celem no po prostu
wydłużenia czasu pracy na jednym
naładowaniu.
Tak. Adaptive power mode chyba tak się ma nazywać?
Chyba tak.
Jeśli chodzi o kontakt to szybki notowaniem mówiliśmy
ale też pojawiła się możliwość zaznaczania
na wiadomościach, więc możemy sobie wejść jakiś tryb zaznaczania
nie bardzo jeszcze mi się to udało
z voice overem uaktywnić, ale po prostu możemy sobie
na jakiejś wiadomości kliknąć jakoś zaznacz i po prostu
jakieś mniejsze kapi tekstu z
wiadomości wyciąć. W ustawieniach też
teraz też będzie możliwość wyłączenia synchronizacji
poprzez dane komórkowe, więc jeśli ktoś nie chce żeby mu się
synchronizowało tylko po wi-fi, może macie jakieś małe pakiety
można sobie teraz to tak skonfigurować.
Udostępnianie ekranu w aplikacji telefon, czyli
jeśli prowadzimy nawet zwykłą rozmowę, ale rozmawiamy z kimś
kto ma iPhone to będzie można się przełączyć w tryb udostępniania
ekranu, tak to rozumiem i w tryb share play.
Tryb skupienia dla jednej karty SIM
czyli jeśli ktoś ma dwie karty, mamy kartę
służbową na przykład i prywatną, no to możemy
sobie w momencie kiedy nie pracujemy
włączyć, nie przeszkadzać, ale tylko dla karty służbowej
no i wtedy nie będziemy dostawać informacji
o SMS-ach, o połączeniach na tą kartę
a na pozostałych jak najbardziej to po prostu
na pozostałej karcie to będzie działało.
Jeszcze budzik.
Budzik też doczekał się kilku istotnych zmian.
Po pierwsze, w końcu można sobie zmienić czas drzemki
od jednej minuty do piętnastu minut
jeśli komuś to jest standardowe. Chyba tam jest siedem minut?
Tak? Chyba.
Dziewięć. Ok, no jakby ktoś chciał właśnie żeby było siedem
albo nawet mniej to w końcu można sobie…
Ja bardzo chciałem pięć, a nie mogłem tego mieć wcześniej.
No właśnie, więc teraz można sobie to ustawić, a gdyby komuś w ogóle
nie pasowała wbudowana aplikacja budzik, a próbowaliście
inne aplikacje i nie wiem, zdarzyło wam się, że coś nie zadziałało
nie zadzwoniło, bo mieliście tryb nie przeszkadzać włączony
nie zadzwoniło wam, bo mieliście akurat zegarek
no to Apple właśnie
deweloperom tego typu aplikacji pomogło, bo zostało
dodane nowe API
nazywa się bardzo kreatywnie AlarmKit
no i w tym AlarmKicie deweloperzy mogą po prostu zrobić tak, żeby
ich budziki zachowywały się tak samo jak budzik systemowy
czy minutnik, czyli
taki budzik może przebijać się przez
nie przeszkadzać, czy przez inne tryby skupienia
zadzwoni nam też na zegarku
można sobie różne po prostu ustawić
jeśli mamy jakieś multimedia otwarzane, to pewnie też te multimedia się zatrzymają
więc będzie po prostu zachowywał się tak samo jak ten
budzik systemowy, no ale będzie pochodził z jakiejś
innej aplikacji, też deweloperzy mogą po prostu
tym zarządzać, więc no takie budziki
po prostu będzie bardziej prawdopodobne
że zadzwonią nawet jeśli ich aplikacja
na przykład została
zamknięta, to też myślę jest
ważną rzeczą, to też nie było tak
oczywiste jeśli chodzi o alternatywne
aplikacje budzikowe.
I jeszcze mamy jedną taką ciekawą funkcję
mamy nowe ustawienie
ustawienie dźwięku w słuchawkach
chodzi o to, że jeśli powiedzmy mamy włożone słuchawki do ucha
ale na przykład wsiadamy do samochodu
gdzie jest włączony system
głośno mówiący z bluetooth
albo właśnie podchodzimy w zasięgi jakiegoś głośnika bluetooth, które włączyliśmy
niekoniecznie chcemy żeby nam ten głos przeniósł się na to urządzenie
bo mamy włożone słuchawki, no to właśnie możemy poprosić
IOS, żeby nawet jeśli coś takiego zostanie
wykryte, to żeby ten dźwięk nam po prostu
w słuchawkach został. Także też całkiem przydatna
zmiana, drobna, ale myślę, że
przydatna. I tyle wiemy na ten moment jeśli
chodzi o IOS-a. Pewnie jeszcze do…
Jeszcze jedna rzecz. A propos właśnie dźwięku, tak nawiązując
to w ustawieniach dźwięków
i haptyki możemy teraz też wybrać mikrofon
który chcemy, żeby iPhone jakby
respektował. Albo jest ustawienie auto
prawda? Jeśli podłączymy AirPodsy, to wtedy się przełączy
na nasze słynne AirPodsy. Natomiast możemy sobie na sztywno
ustawić, czy to mają być powiedzmy AirPodsy, czy to ma być stricte
mikrofon na sztywno ustawiony iPhone’a, bo tak
czy jeszcze innych zewnętrznych źródeł
wejścia także. I to dodano.
I na iPadzie, o czym powiemy też później
troszeczkę więcej w tym zakresie, ale na iOSie to mamy tyle.
To jest faktycznie
bardzo, bardzo fajne. Tak teraz pomyślałem, to
może też być o tyle fajne w sytuacji, kiedy na przykład właśnie
chcemy korzystać z AirPodsów do
rozmowy, ale na przykład chcemy, żeby nam ta jakość
dźwięku jakoś bardzo nie spadła. Tutaj
nie wiem. Pierwsze co mi przychodzi do głowy, no właśnie na przykład sytuacja
że jesteśmy na Zoomie na przykład. Chcemy sobie
włączyć oryginalny dźwięk, żeby ten dźwięk siedł
z iPhone’a, no ewentualnie, chyba że ten tryb studyjny faktycznie
w tych AirPodsach się spisze, ale chcemy,
żeby mikrofon był z iPhone’a, żeby nam
te AirPodsy nie przeszły w ten tryb niskiej jakości Bluetooth, tak?
Czy nawet może to będzie bardziej przydatne, jak ktoś nie ma
AirPodsów właśnie, że faktycznie ta jakość jest gorsza.
No to w takich sytuacjach Team Talk chyba tylko na coś takiego
pozwalał, że mieliśmy dźwięk przez słuchawki Bluetooth, a mikrofon był
z iPhone’a, dzięki temu mieliśmy cały czas takie pełne stereo
i wszystkie jakość była zachowana maksymalna.
Może dzięki temu też tutaj będzie można
to osiągnąć w dowolnej aplikacji. Mam takie nadzieje.
No właśnie, choćby nawet ja teraz w AirPodsach sobie jestem, a mam zewnętrzny
mikrofon do Maca podpięty i bardzo mnie to cieszy, że w końcu
będzie to możliwe na iPhone’ie.
A właśnie, jeszcze jedna nowość a propos iOSa.
W sumie to dwie powiązane.
Jeśli chodzi o Wi-Fi, się pojawiła opcja
Wi-Fi Aware, czy jak to się tam czyta? W każdym razie
chodzi o to, że do parowania różnych
akcesoriów czy urządzeń nie jest już wykorzystywane
wyłącznie Bluetooth, ale właśnie również
Wi-Fi.
To jest rzecz jedna i dzięki temu to parowanie ma być jeszcze
prostsze, może ma się szybciej odbywać czy coś.
W każdym razie drugą jeszcze nowością jest to,
że teraz, wiecie jak to bywa z hotspotami
różnej maści, prawda? PKP Intercity
i różne Starbucksy, że
nie dość, że się podłączamy do sieci, to jeszcze
wchodzimy na, otwiera nam się webowy interfejs,
w którym albo akceptujemy regulamin, albo jeszcze wprowadzamy jakieś dane
swoje dodatkowe uwyżytelniania
użytkownika, hasło i tak dalej.
To teraz to wszystko będzie synchronizowane
właśnie w obrębie naszego iClouda,
zapamiętywane, synchronizowane i przy następnym podłączeniu
no nie trzeba będzie już tego
wprowadzać na nowo, jeśli połączymy się z tą samą siecią.
Także taki jeszcze smaczek.
Całkiem przydatna funkcja faktycznie, jeśli mamy kilka urządzeń, tak? Mamy telefon, komputer
na przykład i może zegarek jeszcze, to
to się może przydać. No właśnie, a propos
zegarka, bo omówiliśmy iOS-a, to teraz
będzie myślę trochę szybciej, bo
w przypadku WatchOS-a nie ma aż tyle do omówienia.
No, WatchOS 26 znów tutaj przeprojektowany
interfejs bez większego zaskoczenia.
Też jeśli chodzi o inne funkcje, no to tak jak na iPhone’ie tak wspominałem,
tutaj funkcje tłumaczenia
też trafiły do wiadomości, do telefonu, tam mogą być
rzeczy tłumaczone. Nie wiem, czy na Watchu
też mamy tą funkcję
hold assist w sumie, ale myślę, że
jeśli iPhone się tym zajmuje, to na Watchu też takie informacje będą się
wyświetlać, więc myślę, że to też powinno
powinno działać. Duże zmiany zaczynały
się pojawiać na przykład w aplikacji
treningów, która została całkiem zmieniona.
Pierwszą taką nowością znów niestety na razie dostępna
po angielsku jest
towarzysz treningowy. Jest to
tak naprawdę po prostu głos. Do tej pory nam Siri mogła
różne informacje o treningu podawać, a teraz będziemy mieli
inny głos na to. Głos
wymodelowany na bazie
prawdziwej osoby, prawdziwego trenera, trenerki
personalnej, czyli osoby, która też nagrywa
do usługi Apple Fitness.
I ten coach nasz
po prostu trener będzie nam różne informacje podawał.
Będzie nas inspirował, podawał nam
informacje na przykład, jeśli pobijemy jakiś rekord osobisty,
jeśli na przykład idzie nam trochę, gdzieś idziemy wolniej,
to nam może przypomnieć, jakie osiągnięcie udało nam się
w danym miejscu właśnie osiągnąć.
I kiedy zakończymy trening, to też nam po prostu gratuluję.
I faktycznie jest taki typowy głos, jak widzieliście kiedyś takie,
jak są ćwiczenia grupowe na siłowni
prowadzone na przykład, czy na basenie. No to jest taki właśnie
tego typu głos.
Sama aplikacja do treningów też została
znacznie
rozbudowana.
Będzie szybszy dostęp do różnych
ekranów z parametrami
naszego tempa, ile kroków wykonujemy
i tak dalej, w zależności od tego, jaki trening akurat wykonujemy.
Ale teraz też będzie z tym
lepiej zintegrowane Apple Music, która nam będzie mogła
automatycznie proponować playlisty na podstawie tego, jaki trening
chcemy uruchomić. No lub nawet podcasty.
No właśnie, albo automatycznie, albo na podstawie rzeczy, których ostatnio
słuchaliśmy. I to może być fajne, tak? Więc na przykład ostatnio słuchaliście
może teflopodcastu. Macie, nie wiem, rowerek
gdzieś w domu, na którym chcecie poćwiczyć.
Wchodzicie na rowerek, na przykład wykonujecie ćwiczenia
i Watch od razu przy starcie proponuje,
a może byś chciał wznowić teflopodcast
i sobie słuchać podczas treningu.
Można będzie sobie to w ten sposób
skonfigurować.
Inteligentny stos, czyli to jest to miejsce,
gdzie się wyświetlają różne widżety.
Jak tutaj napisałem, tak zresztą powiedział,
pamiętam, że to przedstawiał, no tak było przedstawione, że jest jeszcze
bardziej inteligentny. Tam kolejne informacje będą wykorzystywane,
żeby nam proponować odpowiednie
widżety, odpowiednie informacje w odpowiednim momencie.
Na przykład jeśli wejdziemy do siłowni, to zaproponuje nam
uruchomienie treningu.
Czy na przykład
w sytuacji, gdybyśmy
weszli poza zasięg
telefonii, no to może nam automatycznie otworzyć kompas
z tą funkcją trackback, czyli zegarek nam gdzieś zapamięta,
jak mamy skręcić, żeby cofnąć się do miejsca,
gdzie ten zasięg jeszcze mieliśmy, więc to też coś, co
może być przydatne.
Więc to jest inteligentny
stos, ale jeszcze tutaj jeśli chodzi o takie funkcje
około, a ja nie tylko,
to na przykład zegarek może nam automatycznie dostosowywać
głośność dźwięku powiadomień na podstawie tego,
jak głośno jest w otoczeniu, czyli jeśli jesteśmy w jakimś
cichym miejscu, gdzie byśmy nie chcieli,
żeby nam jakiś głośny zegarek zadzwonił, no to ten dźwięk
powiadomień powinien być wtedy cichszy lub
wicewarsza jesteśmy gdzieś, gdzie jest głośno, no to wtedy ta głośność
po prostu się nam
automatycznie zgłośni.
Mamy też nowy gest takiego machnięcia nadgarstkiem,
takie odwrócenie szybkie, tak ten gest rozumiem,
który pozwoli nam szybko jakieś powiadomienie
czy na przykład połączenie zupełnie
odrzucić. Tak jakby od siebie. Tak, od siebie.
No właśnie, mamy nowe funkcje z wiadomości,
znane, czyli tutaj właśnie ankiety, tłumaczenie, to wszystko jest na zegarku też.
I taka duża nowość,
i to faktycznie taka dosyć duża rzecz,
notatki zawitały na Watcha.
I tym bardziej chciałoby się mieć wpisywanie problem.
No właśnie, tak będziemy mogli dyktować.
Po pisaniem to tekst też jest tam możliwe, z tego co rozumiem.
Tak, można pisać swoje treści.
No u nas dyktowanie tylko niestety, no chyba, że przełączymy na angielskie
i tam klawiaturkę sobie dodamy, no to wtedy M.
Tak, to znaczy ewentualnie też jeszcze dodaje scribble, jak ktoś lubi
pisać ręcznie, tak, ale to
też specyficznie. No ewentualnie można podłączyć klawiaturę,
bo linijkę brajlowską to też.
A no właśnie też.
Szkoda swoją drogą, że jeszcze póki co
te notatki nie są, jakby nie przenoszą też folderów
tak naprawdę, nie? Tylko mamy stricte taki widok
do po prostu wszystkich notatek z podziałem na
dni, na daty rozdzielone nagłówkami,
natomiast folderów, no póki co nie mamy.
No to jest pierwsza beta, może jeszcze, miejmy nadzieję,
się to pojawi, no ale faktycznie fajnie, że te notatki
na Watchu się pojawiły, no bo tutaj
było coś, nad czym aplikacje Film Trzeci na pewno
radziły sobie z tym znacznie lepiej.
I ten trening, a propos apki Training,
to faktycznie ten redesign mamy taki powiedzmy konkretny, bo
teraz, żeby zmienić treningi, bo wcześniej mieliśmy tak
po prostu, żeśmy sobie flickowali palcem w prawo, prawo,
prawo i mieliśmy kolejne przyciski z treningami,
natomiast teraz je zmieniamy albo koronką i wtedy mamy
takie delikatną haptykę, puknięcie, że
nam się zmienił dany powiedzmy trening na liście,
który możemy wybrać, albo dwoma palcami w górę, w dół
w ramach przewijania i wtedy nam się te jakby strony ekranu
powiedzmy zmieniają, a obok każdego
tego treningu mamy coś, co wcześniej mieliśmy pod czynościami,
a teraz mamy jako przyciski, czyli tam
bodaj chyba wyświetl cele, coś tam, start, uruchom
trening i tak dalej, więc tutaj mamy też
przebudowę i pod tym względem.
Czyli faktycznie ten interfejs
został całkiem znacznie przeprojektowany.
No i jeszcze a propos
aplikacji Film Trzecich, no to tutaj też deweloperzy dostaną
nowe możliwości, taką najbardziej sztandarową jest to,
że będzie można dodawać własne przełączniki do
centrum sterowania, tak? To było możliwe na iPonie
od jakiegoś czasu i na iPadzie, no to teraz też na Watchu
i w sumie to można powiedzieć, że taki mały spoiler
na Maku też taka opcja się pojawi.
Także to jest w WatchOS 26 generalnie.
Tam chyba jeszcze jakieś tarcze
wyleciały, tutaj widziałem komentarze, że ta
tarcza z postaciami Toy Story wyleciała, jak ktoś
komuś się podobała. Ja nie używałem,
ale ona była o tyle ciekawa dla nas, że te
animacje, które tam się pokazywały, były potrzebne od dyskrypcjami.
Czytane przez VoiceOvera, ale
jednak to się chwali. No niestety to
już po prostu będzie coś, o czym będzie można ewentualnie
przeczytać, ale już akurat
tej tarczy nie będzie.
Wkład w dostępność został zniweczony, prawda?
Wkład w dostępność został zniweczony,
no bo widzisz, była audiodeskrypcja, były opisy, a zostało to…
Niestety.
No właśnie, ale to jest WatchOS, a jeszcze
mamy następnego TVOS-a, chociaż
jeśli chodzi o prezentację TVOS-a, to tam było
więcej pokazywania Apple TV w sumie.
Było dużo zwiastunów, dużo ciekawych
seriali na tej platformie i filmów ma się pojawić.
Nowe sezony, nowe seriale, nowe filmy.
Były po prostu kilka takich migawek
nowych produkcji, ale oczywiście też
było coś powiedziane o samym TVOS-ie.
I wiadomo, na pierwszy plan znów przychodzi
nowy interfejs, który jest przeźroczysty.
Tutaj właśnie było powiedziane to, że nawet jeśli gdzieś nawigujemy
po mnie i coś sobie ustawiamy, to
cały czas widzimy pod spodem
materiał, który oglądamy, tak? Więc ten interfejs faktycznie jest przeźroczysty
i dzięki temu możemy zobaczyć więcej tego,
co oglądamy, jednocześnie sobie
konfigurując różne rzeczy.
Ale poza tym możemy sobie urządzenie
skonfigurować tak, że przy każdym obudzeniu będzie
wyświetlał się ekran wyboru profilu, a to wydaje mi się
może być całkiem sensowne, no bo generalnie telewizory
często są współdzielone w domu. Jeśli mamy kilka
profili ustawionych, no to po prostu będzie nam
łatwiej sobie te profile
będzie można to tak skonfigurować.
I a propos łatwiejszego logowania, tutaj na
Apple TV też się coś takiego pojawiło. Mamy nowe
API do automatycznego logowania. I to jest o tyle
fajne, że powiedzmy zalogujemy się na
zalogowaliśmy się na iPhonie np. do Netflixa
albo do Disneya Plus czy jakiejś innej aplikacji
i uruchamiamy sobie Apple TV, no to
jeśli te aplikacje będą oczywiście zaktualizowane, no to
nie będziemy musieli się logować, no bo po prostu zostaniemy zapytani
czy ta aplikacja może wykorzystać nasze dane logowania
które dziś zostały zapisane w naszym
koncie Apple i no po prostu nie będziemy już musieli się
na telewizorze w ogóle
logować. A było to upierdliwe bardzo. Oj tak.
I muzyka. Tak mówiłem, że będzie wątek
karaoke, no to jak obiecałem tak jest, no bo właśnie
używając Apple TV i Apple Music będziemy
mogli sobie takie karaoke zorganizować. Jeden
z naszych iPhone’ów będzie mikrofonem i ten głos będzie
wzmocniony, że wszyscy będą nas dobrze słyszeć
a pozostałe osoby też na swoich iPhone’ach
będą mogły nam puszczać różne
emotki, reakcje w czasie rzeczywistym.
Także taka ciekawa funkcja na jakieś
imprezy wieczorne na przykład ze znajomymi można sobie
takie domowe
sobie takie karaoke w domu
zorganizować. To był TVOS.
No i a propos jeszcze TVOS-a to ja miałem taki przypadek
nie wiem na ile to jest powszechne, a na ile nie.
Natomiast zaraz po włączeniu, po aktualizacji
wyświetlała mi się lista profili
jakby na które się mogę zalogować
i to był mój profil, ale też profil
członka rodziny dodanego do chmury rodzinnej.
No i po kliknięciu w profil to się za każdym razem włączało jak się
wygaszacz ekranu włączył na Apple TV.
Ale jak już dałem
nie pokazuj tego komunikatu więcej czy jakoś tego ekranu
no to już na szczęście to nie pokazuje, ale jak ktoś ma
Apple TV to żeby się nie zdziwił właśnie, że te profile
generalnie tam się… lista pokazuje ich.
Był iOS, był WatchOS, był
TVOS, ale jeszcze nie skończyliśmy
oczywiście. No i teraz coś będzie o
Macu. Oczywiście mamy Maco SA26
ponownie nazwane po miejscu
w Kalifornii. Tym razem padło na
jezioro Tahoe, Lake Tahoe. I dla tych, którzy
zastanawiają się jak się to pisze, no… Tahoe
można tak powiedzieć, ale mamy na końcu ciche E
którego… o którym można nie wiedzieć, więc Tahoe
tak się to pisze. No jedna z prostszych
pisowni, tylko o tym E trzeba pamiętać.
To jest no właśnie
26 czy ta 16. Wersja Maco SA to
zależy jak to liczy, ale generalnie 26
jest to wersja, która
co ciekawe będzie już ostatnią wersją, która zostanie wydana
na Maci oparte o procesory Intel.
I tych Maców też nie jest dużo, bo tak naprawdę tylko 4
Intelowe Maci i ten system został wydany.
Są to Macbooki Pro z 2019 i
2020 roku. Jeśli chodzi o ten rok 2019
to są tylko te, które mają 4 porty Thunderbolt
a nie 2. Jest to
Mac Pro z roku 2019
i jest to iMac 5K, też
rok 2019. No i później
oczywiście też wszystkie Maci z procesorami
Apple Silicon, wiadomo tutaj od M1 wzwyż też ten
system oczywiście dostaną. Więc to jest ostatni
macOS. Na Intela od macOSa 27
to już będzie dostępny tylko na
Maci z procesorami ARM,
procesorami Apple. Wersja 26
będzie jeszcze przez chyba tam 2 albo 3 lata
dostawać łatki bezpieczeństwa, natomiast już nowych funkcji
dostawać nie będzie. A dla tych, którzy właśnie
macOSa zaktualizują później do wersji
27 i chcą jeszcze korzystać z aplikacji
Intelowych, no to właśnie
przez jeszcze tą wersję i następną będzie dostępna
Rosetta, czyli to narzędzie, które emuluje Intelowe aplikacje,
a od macOSa 28 ona już
zostanie okrojona tylko do emulowania
konkretnych bibliotek, głównie do zastosowań gamingowych,
jak i starszych gier, które już nie mogą z tego czy
z innego powodu zostać
przekonwertowane odpowiednio.
No, na szczęście generalnie jeśli chodzi
o aplikacje, to większość aplikacji już została przepisana,
została zoptymalizowana pod
ARM, akurat tutaj na Macu z tym większego problemu nigdy nie było.
A takim standardowym przykładem czegoś, co nie zostało, to jeszcze
był Steam, ale Steam dzisiaj dostał wersję beta, która już też ma
wersję natywną, także z tym
brakiem Rosetty generalnie problemu dla 90%
ludzi myślę, że nie będzie.
No, jak ktoś jeszcze ma Maca z procesorem Intel,
no to tutaj problem może być większy, ale faktycznie przeskok
między procesorami Intel a Apple jest
naprawdę duży, więc
rozumiem, dlaczego Apple zdecydowała się na taką zmianę,
zresztą to już było od jakiegoś czasu zapowiedziane. Bardzo podobnie
jak w przypadku poprzednich takich
przejść, no bo Apple już przechodziło od procesorów
wcześniej PowerPC na Intel i to przejście też trwało
jakieś pięć, sześć lat, około tam wtedy też była Rosetta
no i tutaj po prostu mamy podobną sytuację i bardzo podobnie
te ramy czasowe wyglądają.
No to to jest parę słów o kampaniedliwności,
a teraz wracając do wątków
nowości, oczywiście nowy wygląd,
tutaj wiadomo, no i dużo funkcji, które już znamy
z iOS-a, czyli filtrowanie wiadomości,
tłumaczenie na żywo,
doczekaliśmy się też aplikacji telefonu na Macu,
co ciekawe, więc też możemy już z poziomu Maca na przykład
wybrać numer konkretny, też mamy klawiaturę, mamy historię połączeń,
która też się z iPhone’a nam w pełni synchronizuje,
no i wygląda to, ta sama aplikacja w sumie tylko,
że wyświetlona w takim widoku podzielonym
na dwie części zamiast zakładek, ale to ta aplikacja na Macu
też nie jest
dostępna. Ciekawe, czy to by oznaczało,
to jest takie domyślanie się i spekulacja, ale może
któryś przyszły MacBook by miał slot A karty SIM.
Ludzie o to proszą. No i mowy to nie spotykane w laptopach.
To są jakieś takie podwaliny,
choćby nawet pod eSIMa właśnie.
No właśnie, Apple ma produkować własne modemy,
przecież od tego roku już iPhone 16e taki modem dostał,
no nie wykluczałbym takiej możliwości, zobaczymy.
Co jeszcze tutaj możemy
o tym nowym Macu powiedzieć?
Można dostosować lepiej pasek menu i centrum sterowania.
Tak wspominałem, deweloperzy mogą dodawać do niego własne kontrolki,
a jeśli chodzi o pasek menu, coś, co mnie osobiście
bardzo cieszy, po prostu możemy zdecydować,
że jakaś aplikacja nie może mieć dostępu do dodania
tego paska menu, bo on ma ograniczoną przestrzeń.
Jeśli mamy tych ikon za dużo,
to po prostu będzie tak, że niektóre ikonki nam z tego paska znikną.
A tak, jeśli nie jest jakaś aplikacja, która nam
siedzi na tym pasku menu i której chcielibyśmy się pozbyć,
na przykład Discord, czy Whatsapp też
swojego czasu miał swoją ikonkę w pasku menu, której nie dało się
pozbyć, bo aplikacja i tak była uruchomiona,
no to teraz można. W ustawieniach tam po prostu jest nowy przełącznik,
wyłączamy go, wtedy ta ikonka znika
i nie ma problemu, po prostu to
wszystko, to można sobie takie aplikacje
ukryć. Można zmieniać kolory
folderów, można sobie to po prostu jakoś kolorami
różnymi oznaczać.
Jeszcze a propos paska menu, no tutaj
jeśli jakaś aplikacja na iPhone wyświetla
Live Activity, czyli to właśnie jakieś coś, co się dzieje
w tle, no to one też się będą pojawiać na
pasku menu.
Jest aplikacja Telefon, tak już wspominaliśmy.
My się tym obejdziemy smakiem, jeśli chodzi
o Live Activity, no bo to się opiera o iPhone Mirroring,
tolowanie, a że u nas tego jeszcze nie ma, no to
kropka. To ciekawe, aplikacja w ogóle zniknęła teraz
z katalogu aplikacji. W Sekoi jeszcze była,
a teraz zniknęła zupełnie. Faktycznie chyba
jej nie ma, no? No niestety.
A szkoda, bo to też ponoć zaczyna z VoiceOverem działać.
Następnie skróty
i skróty doczekały się automatyzacji,
które na iPhonie były od jakiegoś czasu, ale teraz
też pojawiły się na Macu i
doczekały się też funkcji, doczekały się też
opcji, które faktycznie są konkretnie na Macu
przydatne, bo możemy np. sobie
automatyzację utworzyć, która wykona jakąś czynność,
jeśli załatwić jakiegoś folderu się zmieni.
Jakiś plik zostanie dodany, możemy po prostu poprosić, żeby
system wtedy uruchomić
skrót. Mamy też
nowe akcje, i to jest też dostępne na wszystkich systemach
w skrótach, akcje oparte o aplikacjach
księdzy. I tutaj możemy bezpośrednio
z tym modelem rozmawiać. Jak z chatbota
możemy go poprosić, żeby nam np. coś w naszym skrócie pomógł
i ponoć nawet jest to nie tyle mądre, że jeśli
np. ten model nam zwróci jakąś listę,
no to te skróty też są w stanie to przetworzyć na listę.
Więc tam ktoś o tym pomyślał. W ogóle, jeśli chodzi o te modele
Apple Intelligence, to do nich też dostaną
dostęp deweloperzy. Więc będą mogli
wykorzystać ten model, który Apple stworzyło, który działa
na urządzeniu, albo ten trochę mocniejszy, który działa
w murze prywatnej, to się nazywa
Private Cloud chyba, czy jakoś tak.
No to też dowolne aplikacje będą mogły
z tych funkcji korzystać. O tym też Tim Cook mówił
na samym początku konferencji, jeśli chodzi o Apple Intelligence.
No i my też będziemy mogli z nich korzystać, ze skrótów. Co ciekawe,
ludzie na Redditzie np. piszą, że to działa
z językami, które są oficjalnie niewspierane.
Ktoś to po wietnamsku testował. Nie zdziwię się, jeśli
polski też działa, bo czasami nawet ostrzeszczenie też…
Bo wietnamski ma dojść.
Okej. Ale i tak pewnie po polsku
spróbuję zobaczyć, co mi się uda zrobić. Więc to
to są skróty.
Jeszcze holenderski, norweski, duński,
turecki, uzbecki chyba
i no właśnie, ten wietnamski, chiński, tradycyjny.
To są te nowe języki, które dojdą w tym roku do Apple Intelligence, jeśli już o tym mówimy.
Ciekawe, że akurat
uzbecki np. to jest chyba
ciekawe wybory języków.
I taką kolejną dużą nowością
jest przeprojektowany
Spotlight. I Spotlight to trochę tak
tutaj zaczyna też nam szerlokować. W ogóle to właśnie ten Spotlight
szerlokował Sherlocka kiedyś, a teraz Spotlight trochę
będzie próbował szerlokować Launchbara, Alfreda,
jakieś aplikacje do historii schowków,
schowka nawet
w mniejszym stopniu. No wiadomo, takie aplikacje
też będą miały dużo bardziej potężnych funkcji,
więc to nie zastąpi dla wszystkich takich aplikacji.
Ale dla wielu osób myślę, że
ten nowy Spotlight może całkiem dużo zmienić. No bo oczywiście cały czas możemy
szukać po plikach, ale też możemy szybko
włączyć filtr, żeby szukać w aplikacjach.
Swoją drogą, Spotlight teraz też zastąpił Launchpad.
Nie wiem, czy ktoś z Launchpada korzystał, Maciek, czy kiedykolwiek
korzystałeś z tego, żeby aplikację
uruchamiać. To była aplikacja, która generalnie
otwierała nam coś na kształt iOS-owego
ekranu głównego. Mogliśmy sobie foldery tworzyć, przenosić aplikacje do różnych
stron i tak to wyglądało. Tak, przeszukiwać, przeszukiwać po literkach.
No ja, szczerze mówiąc, bardzo sobie to chwalę obok docka.
Obok umieszczania aplikacji w docku to Launchpada właśnie.
No to Launchpad właśnie zniknął.
I po prostu Spotlighta nam otwiera. Także też
Reddit jest podzielony teraz ładnie na pół. Ludzie, którzy bardzo właśnie
narzekają, że Launchpad zniknął, no i ci, którzy
mówią, a ja sobie i tak nie używałem. Chociaż jak sobie ustawiłeś
wcześniej skrót w ustawieniach
systemowych na Launchpada,
ja sobie zrobiłem Ctrl-L, to jak ja sobie to
włączę, to mi się nadal otwiera, znaczy otwiera mi się
co prawda Spotlight, ale już od razu z widokiem
przeszukiwania aplikacji. Tak, tak, to się zgadza faktycznie.
Tak to zostało
zrobione.
I taką największą nowością, właśnie oprócz
użykania plików i aplikacji i zawartości w aplikacjach, jakby poczty na przykład,
wiadomości, Spotlight teraz też będzie przeszukiwał
pasek menu aplikacji, w której jesteśmy, więc tak możemy sobie
polecenie znaleźć, którego
nie pamiętamy. Możemy też
przeszukiwać schowek. Mamy historię schowka, tak jak wspominałem.
I mamy akcje.
Akcje działają na podstawie skrótów,
więc deweloperzy będą mogli się z tym integrować, a domyślnie też będziemy
mieli dostęp do wszystkiego,
co już mamy dostępne
w skrótach. I to jest o tyle genialne, że po pierwsze
Spotlight będzie inteligentnie
proponował nam różne rzeczy, na przykład jeśli w Spotlightie
znajdziemy skrót, wyślij wiadomość e-mail.
A mamy akurat fajnie też zaznaczony plik.
No to Spotlight nas zapyta, wiadomo, o odbiorcę,
zapyta nas o temat. Możemy też
w takich sytuacjach też przeszukiwać, on nam będzie różne rzeczy
proponował. A jeśli chodzi o treść wiadomości, no to nam zaproponuje,
będzie się starał zaproponować inteligentnie
coś, co zostało wybrane. Czyli wykryje, że o, mamy tutaj zaznaczony
plik w Finderze, no to pewnie chcesz ten plik
wysłać. I tak możemy to zupełnie
z klawiatury wykonać
takie szybkie działania, coś na kształt
własnych akcji gdzieś w Alfredzie, w Launch Barze, tutaj właśnie można
ze Spotlighta zrobić. Jeśli jakaś akcja
nam zwraca informacje, na przykład
pytamy się o pogodę, albo w jakiejś aplikacji
możemy jakąś informację sprawdzić, no to też
w Spotlightie po prostu ta informacja nam się wyświetli.
To jest taki pseudowiersz Polesang
w pewnym sensie, tylko taki trochę graficzny z autodupełnianiem
w niektórych sytuacjach, ale to jest naprawdę dobre.
To jest chyba moja ulubiona nowość, na pewno
w tym macOS-ie, może od kilku lat
w macOS-ie, ale nie wiem, no to jest na pewno
jedna z topowych nowości, które pojawiły się
jeśli chodzi o
o tą konferencję
w tym roku. To może być bardzo ciekawe.
Tam jeszcze dostępność trzeba doślifować, nie będę wchodził w szczegóły,
bo nie ma sensu. Znów tutaj pierwsza meta,
ale myślę, że kiedy to już zostanie dopracowane i faktycznie ten system
wyjdzie, to może być bardzo przydatne.
A jeszcze do tej akcji można sobie szybkie skróty przepisywać, tak?
Żeby za każdym razem wpisywać wyślij wiadomość, możemy sobie
zrobić skrót WM, jeśli często wysyłamy wiadomości
i po prostu wpisujemy wtedy do Spotlighta
WM i on będzie nam w stanie
tą akcję szybko znaleźć.
Ale a propos właśnie skrótów i przełączania tych
widoków, to właśnie mamy, że Command 1 to są bodaj aplikacje,
Command 2 pliki, Command 3 te szybkie akcje,
a Command 4 to jest historia schowka.
Tak, więc to jest
Spotlight, to są skróty. Jeśli chodzi
o nowe aplikacje, no to tak jak mówiłem,
mamy aplikacje gry, w ogóle nowe
aplikacje do grafiki zostały wprowadzone
Metal 4, właśnie można sobie ten interfejs w grach
wyświetlić kontrolerem, tutaj też podobnie jak na Steamie
czy w Xboxie można tak wywołać listę znajomych
i tak dalej.
Jeśli jeszcze chodzi o nowe aplikacje,
to mówiliśmy właśnie o
grach o telefonie.
Jeśli chodzi o notatki, no to
notatki na Macu też zostały…
Jeszcze jest dziennik, to na polski jest
jeszcze nie przetłumaczyłem journal w sensie
w aplikacjach, ale dziennik też jest.
Tak, w końcu. Tak, pojawił się, no w sumie też mi brakowało
przez jakiś czas, zarówno na Macu
jak i na iPadzie jest ten dziennik.
Dokładnie. I teraz możemy
mieć wiele dzienników, nie tylko jeden, ale wiele.
No i to, że możemy nasze wpisy też lokalizować na mapie, to nas chyba
najmniej obchodzi, ale zostało dodane.
No, ale właśnie samo to, że możemy jednak trochę dużo napisać.
Dla mnie dziennik to jest bardziej właśnie coś do pracy na komputerze,
a nie na ekranie dotykowym.
Stricte na iPhonie, bo nawet tego na iPadzie nie było,
a teraz już mamy na iPadzie.
No właśnie, to było wcześniej tylko na iPhonie.
Jeśli jeszcze chodzi o notatki, to w notatkach w ogóle też doczekaliśmy się
funkcji importu i eksportu Markdown.
A ten Markdown strasznie bardzo cieszy się
popularnością nawet w notatniku na Windows 11 teraz.
Markdown się pojawił, no i tutaj też notatki
na systemach Apple nie są dłużne. Też we wszystkich systemach
możemy zarówno eksportować, jak i importować
z Markdown i po prostu…
To mnie zresztą nie dziwi, bo to jest mega prosty język, mega prosta składnia,
fajna, przyjazna, a przy okazji robi kawał
dobrej roboty, jeśli chodzi o formatowanie.
Jak działa ten import i eksport? Czy mamy jakąś opcję
podglądu tego, co tym Markdownem
napisaliśmy w formie takiej sformatowanej?
Tak, to znaczy to działa tak, że jeśli importujesz,
to się po prostu wkleja do notatki i wtedy
VoiceOver tam im anonsuje, jak coś jest na główkę, linkiem,
zresztą mamy wtedy skróty nawigacyjne, można potem skakać.
No a przy eksporcie, no to po prostu dostajesz plik MD.
Okej, ale nie mogę zrobić sobie takiego
edytora wysiłek, że po prostu wpiszę sobie
składnię markdownową i mi się to zrenderuje jako
nagłówek albo link, albo inny element taki semantyczny.
Wiesz co? Nie sprawdzałem,
jak to będzie wyglądało. Sobie spróbuję.
Generalnie wiem, że to na pewno nie działa przy
wklejaniu. Niestety.
Ale chyba… A to dziwne. Nie. Załóżmy, że to
pierwsza beta i może dlatego. Tak, no może jeszcze to na pewno coś, co
warto byłoby sugerować. No generalnie to jest proces
manualny, tak? Musimy wywołać albo ten import
i eksport i faktycznie to wtedy zadziała,
ale niestety tak podczas pisania to chyba
jeszcze nie. Ale jeśli ktoś zastanawia się, czemu ten markdown jest taki fajny,
to polecę się podcast o markdownie, który m.in.
właśnie Paweł nagrał. Gorąco polecam
sobie posłuchać, do czego nam się to może przydać.
Bo zastosowań jest naprawdę dużo.
I jeśli chodzi o dostępność,
no tutaj też mamy ten tryb Braille Access, czyli ten tryb notatnika
braillowskiego. Accessibility Reader
też się pojawił na
Maku. Te nowości z dźwiękami tła, no to też się pojawiło.
Kolejna nowa aplikacja na Maku? Lupa.
Doczekaliśmy się lupy na Maku, która możemy
wykorzystać albo naszego iPhona jako kamerkę, albo
dowolną kamerę gdzieś podłączoną na port USB
na przykład. No i możemy po prostu
na większym ekranie na Maku sobie czytać. Też możemy wejść w ten tryb
czytania, rozpoznawać ten tekst, możemy
sobie zrobić zdjęcie zamiast widoku na żywo i na tym
zdjęciu pracować. I po prostu
możemy sobie różne materiały
powiększyć. Jeśli
chodzi o voiceovera, no to
tutaj społeczność odkryła, to też jest bardzo
widoczne. W narzędziu voiceover pojawiła się nowa kategoria,
gdzie możemy sobie skonfigurować, jak voiceover
może zachowywać się, ma nawet się zachowywać podczas
udostępniania ekranu. Więc jeśli sterujemy jakimś innym
Makiem, no to możemy zdecydować tak,
żeby druga osoba, nawet na przykład, że pomagamy
osobie widzącej, no to możemy zdecydować, żeby
my mieli voiceovera, ale żeby ta
osoba go nie słyszała
na przykład. Możemy sobie osobny głos ustawić.
Tak jest chyba nawet domyślnie. No właśnie. I to jest bardzo
fajne. Ja nie wiem, czy tu znów nie mamy trochę takiego
mini-Sherlocka znów, bo
swojego czasu Remote Incident Manager, coś takiego
oferował. Wiemy, że Apple coś w tej sferze
popsuło. I oni chyba tam nawiązali jakieś kontakty.
No RIM właśnie jako jedyny
oferował taką możliwość, że mogliśmy pracować na Maku innej osoby,
tak żeby ta osoba nie słyszała, co
my akurat robimy. No i tutaj w takiej sytuacji
Mac do Maca, no bo obie osoby muszą mieć tego najnowszego
macOSa. Możemy komuś tak pomóc.
Natomiast, no wiadomo, to nam nie rozwiązuje
problemów ze sterowaniem na przykład Windowsa
z Maca czy vice versa, więc tutaj na pewno RIM
jeszcze będzie miał swoich klientów, ale tutaj
w sytuacji, nawet właśnie osoba niewidoma
chce pomóc innej osobie niewidomej, zdalnie jest z Maciem.
Jak najbardziej to jest mile widziane, tym bardziej właśnie, że pewnie to też
będzie bardzo przydatne
w przypadku pomocy
też osobom widzącym.
I to jest generalnie macOS. Chyba, że jeszcze chcecie
coś dodać tutaj?
Okej, rozumiem, że nie.
Nie wiem, czy mamy jakieś wiadomości.
Teraz właśnie sprawdzam.
Na Whatsappie nic nie ma i
nie wydaje mi się, żeby było też
gdzieś i dzień. Na panelu kontaktowym
też nic nie ma i na YouTubie
też nie ma.
6 6 3 8 8 3 6 0 0, gdyby ktoś chciał
lub kontakt.tyflapodcast.net to jest normalny kontaktowy
albo na YouTubie właśnie możecie śmiało się
z nami kontaktować. Jeszcze a propos nowych
aplikacji, które się pojawiły bardziej na właśnie
Iphonie i na Ipadzie, to apka Preview
podgląd i pytanie w sumie, czy ty ją jakoś leżej testowałeś,
bo ja powiem szczerze, ja jeszcze nie miałem okazji
i wiem, że się pojawiła, że tam można też
wstępnie sobie jakoś tam, nie wiem, zdjęcia obrabiać,
chyba edytować, coś przycinać, obracać, zdaje się.
I nie wiem, czy przypadkiem nie tworzyć
nowych dokumentów, ale to jest
z naciskiem na bardzo duże ale.
Nie sprawdzałem, wiem, że faktycznie ta aplikacja jest, tak jak mówisz,
i na Ipadzie też, na Iphonie na Ipadzie właśnie się pojawiła.
No i właśnie można jej sobie
też może do czytania plików, ale ja w sumie
jakby ktoś chciał też użyć.
Natomiast następny był omówiony
Vision OS, no i tutaj wygląd, ten
Liquid Glass w ogóle był zainspirowany Vision OS,
więc tutaj dużych zmian chyba nie było aż takich.
Natomiast pojawiły się widżety, no, tylko przez to, że to jest Vision OS,
to możemy sobie te widżety zostawiać, gdzie popadnie,
tak, w naszym domu na przykład, sobie powiesić
pogodę na ścianie na przykład, nie wiem.
Różne rzeczy, można te
widżety sobie ustawiać, można sobie tworzyć
zdjęcia 3D, takie przestrzenne zdjęcie 2D,
gdzie tam jakiś AI jest używany, żebyśmy mogli sobie
to tak bardziej wizualnie, te zdjęcia
eksplorować. Można też przestrzennie przeglądać.
Strony internetowe też jakoś ta zawartość będzie wokół nas się
wyświetlała i też, co za tym jest,
jakieś nowe api dla web-developerów się pojawiły,
które mają pomóc w tworzeniu jeszcze treści zautomatyzowanych
pod styl tego typu
zastosowania. Avatary Persona,
gdzie wyglądają lepiej, czyli to są
awatary wykorzystywane w sytuacji, kiedy na przykład
łączymy się z kimś po FaceTime’ie, no bo
nie zapominajmy Apple TV, nie mamy kamerki skierowanej
na taki sposób, żeby
normalnie dało się nasz obraz pokazać, więc
mamy takie persony generowane, które mają
nas przypominać, pomylić faktycznie, teraz to się udało, wcześniej to
wyglądało dziwnie, a teraz faktycznie to bardziej wygląda
ludzko. Możemy
wspólnie pracować na jakiejś aplikacji, jeśli kilka osób ma
pecety, zarówno zdalnie, albo jak jesteśmy w jednym miejscu,
to się bardzo może przydać firmom, no właśnie
jeśli chodzi o firmy, to generalnie bardzo duży nacisk był
na to położony, bo generalnie, no właśnie firmy są jednym
z większych klientów Apple TV,
Apple Vision Pro nawet, bo tutaj mówimy
o Vision OS-ie, bo
tego typu urządzenia bardzo przydają się
w jakichś zastosowaniach przemysłowych, w jakichś szpitalach, wiem, że lekarze
to pomagają sobie podczas operacji albo uczą się
używając tego typu sprzętu, więc
co za tym idzie, na przykład możemy dzielić takie jedno urządzenie
i na przykład zapisywać ustawienia indywidualne
na iPhone’ie pracownika, w tym ustawienie dostępności,
co ciekawe, to też było właśnie wspomniane, więc jeśli ktoś voiceovera
potrzebuje w takiej firmie, to też będzie można sobie zapisać
i jeśli taka osoba założy ten headset, no to
to ustawienie jakoś będzie można
ściągnąć. Mamy nowy system
uprawień i właśnie też można jakieś dokumenty
poufne udostępnić tylko uprawnionym pracownikom.
Mamy też wsparcie dla przestrzeni
kontrolerów, tutaj też Apple zpartnerował
z Logitech’em, żeby stworzyć kontroler
konkretnie pod Vision Pro do takiego
bardziej precyzyjnego umieszczania na przykład obiektów
tego typu zastosowań.
Nowe jakieś treści w VR
mają się pojawić, jakaś nowa aplikacja od Adobe,
co bardziej na komputery do tworzenia nowych treści.
Będzie też można łatwo eksportować filmy
nagrane w 360 stopniach takimi specjalnymi
kamerkami, na przykład jakiś GoPro takie rzeczy produkuje.
A będzie można łatwo takie rzeczy do Vision Pro zaimportować i sobie
oglądać. I na koniec dostępność,
bo tutaj też zaczyna dziać się dużo
i tutaj, tak jak mówiliśmy w przeglądzie w zeszłym miesiącu,
to jest moment, kiedy Vision Pro może
stać się ciekawym urządzeniem dla
nas, bo
po pierwsze doczekaliśmy się też funkcji zoom, więc można sobie nawet
cały po prostu świat wokół nas powiększać,
ale też VoiceOver dostał wszystkie funkcje
rozpoznawania na żywo na Vision Pro.
Czyli to jest wykrywanie drzwi, wykrywanie ludzi,
czytanie tekstów, ta funkcja wskaź i mów,
gdzie po prostu gdzieś palec kładziemy i ten tekst jest czytany.
No to są funkcje, które
moim zdaniem są
dużo bardziej sensowne na urządzenie, które faktycznie nosimy na głowie.
Mamy ręce wolne i na przykład właśnie sobie szukamy
odpowiednich drzwi, czy stoimy przed jakimś urządzeniem z ekranu
dotykowym gdzieś palcem, trzymamy palec nad nim,
ale wiemy, że zawsze to jest wszystko widoczne,
bo największym moim problemem z tą funkcją wskaź i mów
na iPhonie był taki, że mam wrażenie, że
zawsze jakoś źle kadrowałem ten ekran.
Może dlatego to nie chciało działać.
Strzelam, że na takim headsetie to będzie działało lepiej.
Czy na tyle, żeby taki headset kupić, żeby sprawdzić?
No niestety nie, ale to może być moment,
kiedy ktoś mógłby się nad takim urządzeniem
zastanowić na poważnie.
Zwłaszcza, że deweloperzy,
i to też tylko właśnie deweloperzy aplikacji dla dostępności,
będą mogli uzyskać rzeczywisty dostęp
do obrazu z kamer na tym urządzeniu.
Bo generalnie to dla prywatności
takie informacje nie są udostępniane,
bo właśnie mamy te persony, o których mówiłem,
ale dla aplikacji związanych z dostępnością.
I tutaj był podany przykład Be My Eyes,
gdzie będziemy mogli poprosić o pomoc wolontariusza.
Deweloperzy aplikacji dostępnościowych
będą mogli zgłosić się do Apple’a
z prośbą, żeby takie funkcje
dostać dostęp do kamer
na tym urządzeniu i takie aplikacje stworzyć.
Jestem bardzo ciekawy, co deweloperzy zrobią.
Bo tutaj coś czuję, że właśnie na ten moment
czekał Envision też pewnie.
Be My Eyes już się zapowiedzieli, że aplikacja będzie.
Ciekawe, co jeszcze, bo tutaj mamy bardzo rozbudowane funkcje
skanowania okolic, wykrywania różnych obiektów,
bo generalnie do tego to urządzenie
jest stworzone.
Jestem bardzo ciekawy, co z tego wyjdzie,
bo chyba tutaj zaczyna się realizować potencjał Vision Pro
pod względem dostępności, zwłaszcza patrząc na to, że
za jakiś czas ciągle się mówi o tym, że ma się pojawić jakaś wersja
tańsza, trochę mniejsza.
Zobaczymy, robi się ciekawie.
I wtedy te iPhone’y Pro już na de facto nie będą potrzebne tak naprawdę.
Tak, bo tutaj mamy
nawet dużo bardziej rozbudowany ten czujnik
LiDAR, tak zwany.
I na koniec
była mowa o iPadOS-ie.
Wiadomo, nowy wygląd, wszystkie praktycznie
zmiany, o których mówiliśmy,
z iOS-a tutaj na iPad’cie też się pojawiły.
Natomiast jeśli chodzi o iPad’a, to taką
zdecydowanie największą zmianą
jest to, że cały system
wielozadaniowości został przeprojektowany od zera.
Był o tym niedawno podcast,
Arak Świętnicki go stworzył
i tam mogliśmy się dowiedzieć, że generalnie
wielozadaniowość na iPad’cie wyglądała tak, że mogliśmy
mieć generalnie dwie aplikacje otwarte jednocześnie.
Może więcej, ale powiedzmy tylko jedno okno było
aktywne i mogliśmy albo sobie podzielić, także
ekran był podzielony na pół, ewentualnie jedna aplikacja
pływała w takiej małej miniaturce nad drugą, większą
aplikacją. Ale gdyby ktoś chciał sobie otworzyć na przykład
dwa, cztery aplikacje, no to
się nie dało. Gdyby ktoś chciał sobie dowolnie
okna poustawiać, no to też te możliwości były
ograniczone. Dużo osób prosiło o to, żeby
iPadOS pod tym względem działało bardziej jak
Mac lub Windows i Apple w końcu
spełniło te życzenia. Wszystkie funkcje
wielozadaniowości, które znaliśmy do tej pory, oprócz stage
managera, czyli ten slide over, tak zwany, czy split view, czyli
podzielony ekran, tego już po prostu nie mamy. I teraz
wygląda to tak, że aplikacje jednodomycznie otwierają się w bitoku pełnookronowym.
Ale w każdej chwili mamy, tak jak na
Macu, uchwyty, takie rączki
na oknach, które pozwalają nam ich rozmiary
zmniejszyć. Jeśli jakieś okno zmniejszymy, to też iPad zapamięta.
To jeśli później otworzymy taką aplikację w przyszłości…
No i możemy właśnie sobie otworzyć
więcej aplikacji, dowolnie ustawiać, czy
okna mogą nawet się nakładać na siebie, jakby ktoś
chciał. Można je szybko wyrzucić do
konkretnych krawędzi ekranu,
to jest tak zwany tiling, tam wystarczy, że machniemy raz w okno i ono
przyczepi się do odpowiedniej części
ekranu. Aplikacje doczekały się
też pasków menu,
co ciekawe. Więc też większość aplikacji tych budowanych,
ale pewnie też te zewnętrzne będą miały
swoje paski menu.
Mamy też te kontrolki bardziej optymalizowane
na gładziki i myszki, no bo nie zapominajmy, że do iPada możemy
kawiatury podłączyć.
Mamy tryb expose, czyli jak mamy
bardzo dużo okien otwartych, to możemy takim z mini,
teraz zwanym, takich miniaturki tych okien
zobaczyć, żeby znaleźć to, czego szukamy
szybciej. I co ciekawe, tak jak wcześniej, te funkcje
wielozadaniowości były dostępne tylko na tych mocniejszych iPadach,
na przykład z procesorami Apple Silicon, to
Apple to zoptymalizowało do tego
stopnia, że te funkcje
po prostu będą dostępne na każdym
iPadzie, który zostanie iPadOS-a 26.
Swoją drogą chyba nie wspomnieliśmy o kompatybilności
iOS-a. A myślę, że warto powiedzieć o jednej
przynajmniej rzeczy. On generalnie będzie kompatybilny
od iPhona 11 wzwyż.
Więc jeśli ktoś jeszcze ma iPhona 10s na przykład,
no to niestety już
iOS-a 26 nie zainstalujemy.
I watchOS też zresztą od
Apple Watcha szóstej generacji i uwaga
SE2. Nie od SE1, tylko
od SE2. Tak, no i z iPadami
też jest podobnie, czyli nie pamiętam teraz, jaki iPad był
najstarszy, który miał ten procesor z
iPhona 11.
Tak, tak, bo tych iPadów jest dużo, więc to tak.
Tak, i te modele też.
Mniej więcej tak wygląda kompatybilność
iPadOS-a.
Mamy rozbudowaną aplikację pliki,
mamy nowy widok listy, gdzie możemy sobie dostosować
czy te kolumny mają być większe czy
mniejsze. Też można
rozwijać foldery, tak jak na Macu możemy
do folderów wejść, a też możemy go rozwinąć, nie wchodząc
do niego. Na iPadzie teraz mamy podobną funkcję.
To zresztą też pojawiło się na iPhonie
i kolejna rzecz, która pojawiła się na iPhonie
to to, że w końcu w oczywisty sposób
będzie można zdecydować, w jakiej aplikacji ma
otwierać się plik danego typu. I to faktycznie już tak działa,
że powiedzmy, jeśli klikniemy na jakiś plik audio i on domyślnie
otwiera się w tym widoku podglądu,
no to teraz nam się otworzy domyślna aplikacja.
Domyślnie u mnie się w VLC ustawił na przykład,
czy VLC. A gdyby ktoś tego nie chciał,
to po prostu można będzie sobie to
zmienić.
Te funkcje zmiany kolorów w folderach
też można
sobie dostosować.
Można dodawać foldery dowolne
do doka na iPadzie. Tu tutaj tylko na iPadzie,
akurat tego na iPhonie nie mamy.
Mamy aplikację Podgląd, jak już wspominaliśmy.
Ustawienia dźwięku.
I tak jak tutaj wcześniej wspominał Maciek,
będzie można wybrać domyślny mikrofon dla dowolnej aplikacji,
ale też dla dowolnej strony internetowej.
Można też globalnie
włączyć redukcję szumów, izolację głosów.
Mamy właśnie ten tryb nagrywania w jakości
studio na AirPodsach. Właśnie tutaj Apple o tym
wspomniało.
I mamy nową funkcję
lokalnego nagrywania wideo.
Szkoda, że to jest tylko ograniczone do nagrywania video.
Generalnie to ma pomóc osobom, które nagrywają
podcasty, że będzie można nagrać to
na iPadzie.
Ale zrozumiałem, że to ma działać tak,
chyba, że coś źle rozumiem, że jeśli chcielibyśmy
nagrać kilka ścieżek, każda osoba jest w osobnym
pliku, co jest bardzo często przydatne w tego typu
sytuacjach, to
po prostu wszyscy muszą tę funkcję uruchomić.
I wtedy to można ustalić, ale nie ma
z tego, co zrozumiałem, czegoś takiego, że
deweloper może powiedzieć, że tutaj każda osoba
to jest osobna ścieżka, żeby
to się na samym iPadzie tak zrobiło.
Gdyby jeszcze to było dostępne na nagrywanie audio,
to w ogóle byłoby super. Byśmy mieli hijacka z Sherlockowanego,
chociaż to jest tylko na iPadzie akurat, a nie na Macu.
Ale będzie można sobie jakieś rozmowy
w wideo
nagrać.
No właśnie, a propos tego dźwięku, nie wiem, czy ja dobrze zrozumiałem,
podczas tej konferencji najwyżej mnie z błędu wyprowadzisz,
natomiast, że można ustawiać
dla różnych aplikacji stricte tylko na iPadzie,
jeśli chodzi o wejście dźwięku,
o mikrofon i jeśli chodzi o wyjście, że każda aplikacja
może sobie odtwarzać z czego innego, czy to
powiedzmy z głośników iPada, czy to
powiedzmy dźwięk przekierowany na słuchawki w innej aplikacji itd.,
nie wiem, czy ty to potwierdzisz, czy ja coś źle zrozumiałem,
żeby to w błąd nie wprowadzać?
O wyjściach nie słyszałem, ale tam się wszystko działo bardzo szybko,
a to się jednocześnie robiło na czatki, więc bardzo możliwe, że przeoczyłem to,
jeśli faktycznie tak można.
No właśnie, bo w przypadku iOS-a tego nie było,
natomiast w przypadku iPadOS-a o tym mówili, tak mi się wydaje.
Chyba to api do wyboru mikrofonu też na iOS-ie się pojawi,
no zobaczymy.
Ale coś takiego ma się faktycznie pojawić.
Bardzo możliwe, że wyjście też będzie można ustawić.
I tutaj też kolejny powód, dla którego dużo osób mówiło,
że ten iPad to nie jest komputer,
bo np. jeśli eksportujemy jakiś duży projekt,
no to musi być cały czas aplikacja otwarta, nie możemy zablokować ekranu.
No teraz będzie można.
Właśnie na takich skomplikowanych operacjach, jakiejś eksporty wideo,
ja tutaj np. widzę transkrypcję mowy,
tak Whisperem jakimś np.,
będzie można to zrobić tak, żeby te operacje cały czas działały w tle.
Wtedy one po prostu zminimalizują się do live activity,
więc będziemy je widzieć gdzieś na górze ekranu,
tam będzie taki mały okienko statusu,
ale one po prostu, jeśli nawet ma potrwać godzinę,
no to system nie ubije tej aplikacji przez tę godzinę.
Będzie mogła operacja zostać dokończona.
Możemy tworzyć wykresy 3D w notatkach matematycznych,
no i tak jak wspominaliśmy też tutaj a propos nowych aplikacji,
na iPadzie pojawi się dziennik,
czyli aplikacja Journal.
A tak a propos jeszcze tych zadań w tle,
to wydaje mi się, że też mówili o tym, że to będzie tak wielowątkowo,
że tych aplikacji różnych, które robią różne te działania
typu i transkrypcja i eksport z racji, że te iPady już dysponują dosyć sporą mocą obliczeniową
dzięki procesorom ARM,
to że będzie można kilka takich aplikacji, które będą mogły sobie działać w tle.
No to byłoby sensowne, jeśli te iPady Pro mają procesory M4 w tym momencie,
czyli takie same jak w małopółkach Air,
mają na tyle procesorów, żeby tak działać jak najbardziej.
I to a propos tych zadań w tle, nie wiem, teraz mi się to zrobiło,
w tej pierwszej becie, wcześniej na macOSie,
właśnie przechodząc do macOSa 15 i teraz tutaj porównując te zadania w tle poniekąd,
nagle zacząłem, jak aplikacja WhatsApp jest zamknięta,
dostawać powiadomienia generalnie, a wcześniej tego w ogóle nie miałem, także…
No tak, bo WhatsApp nam przysyła powiadomienia.
W ogóle swoją drogą, a propos Maca,
jest tego dużo i zapomniałem o jednej rzeczy powiedzieć,
która wydaje mi się jest ciekawa, jeśli chodzi o dostępność,
to w tej funkcji rozpoznawania głosu,
akurat po polsku nie jest dostępna, ale po polsku byłoby ciężko zrobić,
doczekała się osobnego trybu do programowania w aplikacji Xcode.
I to jest o tyle ciekawe, że dostosowanie, rozpoznawanie mowy do programowania,
to wcale nie jest tak oczywiste.
Kiedyś oglądałem wykład osoby, która tak pracuje
i tam trzeba nauczyć się systemy odpowiedniej składni,
no lepiej jakby na przykład te znaki interpunkcyjne,
bo to będą każda kropka, każdy nawias, każda klamra,
no liczy się tak naprawdę, każdy średnik.
Więc to rozpoznawanie mowy musi faktycznie odpowiednio być przystosowane
i tutaj Apple chwali się tym, że właśnie w Xcode to miało miejsce
i to powinno działać naprawdę fajnie.
Ale sam Xcode też doczeka się jeszcze bardziej rozbudowania integracji AI.
Oprócz tego modelu, który tam stworzyło samo Apple,
jak ktoś by chciał sobie zintegrować czy to czata GPT, czy clouda, czy inne modele,
po prostu będzie taka możliwość w Xcode 26.
Na wstępie z GPT chyba, natomiast potem zdaje się,
że będzie można API dodawać w późniejszym czasie do innych usług, zdaje się.
No i to był iPadOS. Na tym się konferencja zakończyła.
Taką bardzo śmieszną piosenką stworzoną z recenzji prawdziwych,
które ludzie napisali na App Store, więc taki ciekawy koniec.
To była jedna z krótszych konferencji w historii.
Trwała jakieś półtora godziny bodajże.
W przeciwieństwie do podcastu, który jak najbardziej tyle nie trwał,
bo tutaj dzięki temu, że ta audycja miała miejsce trochę później,
to udało nam się więcej informacji zebrać.
Teraz mam pytanie do was.
Czy jeszcze chcielibyście coś dodać, podsumować?
Jest trochę rzeczy, na które czekam.
Jestem ciekaw, nie ukrywam.
Trochę fajnych rzeczy doszło, takich użytecznych, których brakowało gdzieś tam.
Ciekaw jestem, jak się rozwiną pewne rzeczy też,
czy co jeszcze przyniosą kolejne bety,
bo to jest też taki aspekt, o którym czasem się nie wspomina,
dopiero to wychodzi w praniu, że konferencja to jedno,
potem jakieś artykuły, takie 26 rzeczy,
których absolutnie nie pokazało podczas premiery IOS-a 26.
Jeszcze 27, na które nikt nie pisze. Patrz, dzwonki tak.
Na przykład. Ale że wyjdą jakieś tam takie małe, drobne rzeczy.
Ale kwestia jest tegoż tego typu, że to jest sytuacja nadal rozwojowa
i te rzeczy będą po pierwsze ulepszane, te, o których już wiemy.
Taka jest nadzieja.
Ale też mogą dotrzeć jakieś nowe,
bo coś nie było gotowe na pierwszą betę,
albo jeszcze jest jakoś tam ewaluowane.
Także ja jestem ciekaw takich już naprawdę doświadczeń użytkowników,
bo marketing to jest jedno, a to, jak to będzie wyglądało w praktyce,
to będą ciekawe wakacje, myślę.
Jedna fajna rzecz, która na szczęście nie jest towiana marketingiem,
a działa, a myślę, że bardzo fajnie o tym wspomnieć,
to wejście ekranu Brailla i opcja… jak się teraz nazywa?
Ucz się kropek, czy jakoś tak.
Którą można… ona chyba jest domyślnie włączona.
I ma to za zadanie sprawić, że nie jest ta kalibracja punktów
aż tak wymagana, jak było to dotychczas.
Ja to sprawdziłem i w sumie to działa.
Rzeczywiście tak w zależności od ułożenia rąk, ich pozycji itd.
Ja sobie nawet specjalnie gdzieś tam próbowałem przesuwać
to w poziomie, troszkę to w pionie.
Dwa znaki może zrobiła błędnie, a potem jak się zorientował iPhone,
że aha, to teraz on ma tak.
To faktycznie mi to z automatu te punkty skalibrowało.
Także to w sumie raczej działa bardziej niż nie działa.
To fajna rzecz jest.
Natomiast co jeszcze?
Dostępnościowo chyba tyle.
Natomiast jeszcze kwestia taka, że jak wiemy hasła w dzisiejszych czasach
niezbyt bezpieczną metodą logowania są.
Więc Apple postawiło na przyszłość, czyli na paskis, na klucze dostępu,
że ponoć teraz przy zakładaniu konta Apple ID
po prostu będzie sobie można automatycznie wygenerować ten właśnie klucz dostępu.
No i logując się do konta Apple, uwierzytelniać się właśnie biometrycznie,
tudzież pinem urządzenia i w ten sposób się logować do konta Apple.
Usprawniono też generalnie eksport tych kluczy,
synchronizację w iCloudzie.
Synchronizację w iCloudzie jak synchronizację to już mieliśmy.
Natomiast eksport jeszcze bardziej to gdzieś tam usprawniono.
No i też możemy sobie w sumie, to jest taki bajer w sumie chyba,
ale sprawdzać i na iOSie i na macOSie historię zmian haseł,
w sumie kiedy żeśmy zmieniali, jakie te hasła były i tak dalej.
I jeszcze dwie rzeczy.
O przypomnieniach w sumie nie mówiliśmy.
No to też niestety dla tych, którzy cieszą się Apple Intelligence,
z funkcjonalnościami.
Natomiast o co chodzi z przypomnieniami?
Po pierwsze automatyczne segregowanie generalnie przypomnień,
jeśli chodzi o różnego typu zadań, o różnego typu zadania.
Tam coś chyba o zakupach było też wspomniane i tak dalej,
że to jeszcze bardziej, jeszcze bardziej będzie ujednolicone,
bardziej kategoryzowane i tak dalej.
Ale to, co jest fajną funkcjonalnością, oczywiście to bez naszej zgody się nie dzieje.
My na to musimy zgodę świadomą, dobrowolną wyrazić.
To jest automatyczne, chyba automatyczne dodawanie do przypomnień,
do kalendarza nie wiem, do przypomnień na pewno,
różnych rzeczy z maili tak naprawdę.
Jeżeli w mailach mamy jakieś wydarzenia, powiedzmy jakieś sugestie,
rzeczy do wykonania, nam ktoś coś sugeruje zrobić,
to to nam się ponoć automatycznie będzie pojawiało w przypomnieniach,
również z naciskiem na prywatność, jak to mówi Apple.
I tak samo jeśli chodzi o ten Foundation Framework,
jeśli chodzi o ten Apple Intelligence, to też bardzo na to nacisk kładą,
że jeżeli deweloperzy dostaną API, dostęp do Apple Intelligence
i do wdrażania ich w swoje aplikacje, to że to też wszystko będzie lokalnie
na urządzeniu i tak dalej.
I ostatnia rzecz, to też mówili dużo o kryptografii, prawda,
o tym jak to wszystko jest szyfrowane, że to bardzo mają na względzie,
też kwantowe szyfrowanie, czyli jak super komputery kwantowe i tak dalej,
to żeby generalnie te urządzenia nie były tak łatwe do złamania,
że cały czas jeśli tam nad tym pracują, to ulepszają.
I ostatnia rzecz, ochrona dzieci, kontrola rodzicielska i tak dalej.
To tam jeszcze bardziej ulepszono funkcje czas przed ekranem
i to jakie rodzice też powiadomienia będą dostawać odnośnie aktywności dzieci,
ale też ułatwiono, uproszczono proces konfiguracji konta dla dziecka.
Jeżeli dziecko ma poniżej 13 roku życia, to będzie automatycznie sugerowane
dodanie konta Apple ID danego dziecka do chmury rodzinnej.
Generalnie też klasyfikacje w App Store, te filtry jeśli chodzi o wiek dzieci
i nastolatków, tam jeszcze bardziej zostały ubogacone w różne rzeczy.
Może bez szczegółów, ale generalnie tam doszły rzeczy.
Jeśli chodzi o udostępnianie wieku, to też nie będzie udostępniona
konkretna data urodzenia danego dziecka, ale po prostu wiek.
Ile to dziecko w danym roku ma lat, więc nie będzie Apple też wiedziało
ani tak naprawdę żaden z dostawców, kiedy konkretnie.
I też jeśli tam chodzi o te obrazki, o wideo, o treści wrażliwe i drażliwe itd.,
to też podobno one będą podczas, zdaje się, połączeń FaceTime
rozmywane, z tego co wyczytałem chyba.
Natomiast to, co jest pewne, to też dziecko powyżej 13 roku życia,
a do 18, też jeżeli będzie chciało zadzwonić pod nieznany numer
lub też dodać do kontaktów taki numer, również ponoć w zewnętrznych aplikacjach,
nie tylko w wiadomości, czy FaceTime, czy telefon,
to będzie musiało uzyskać zgodę rodzica na takową aktywność.
Także to jest to, co więcej informacji jak… bo ja to teraz przytaczam
z portalu iMagazine, tam jest cały artykuł o tym.
Więcej informacji jeszcze, żeby się bardziej wgłębić, można znaleźć
na apple.com.slash families, także zachęcam, jeżeli zwłaszcza komuś zależy na…
jest rodzicem i by chciał się dowiedzieć, jak to wszystko ogarnąć, to tak można zrobić.
A i chyba z przenoszeniem eSIM jeszcze coś było, nie Piotrek?
Wydaje mi się, że chyba coś z przenoszeniem eSIM było, że teraz jeszcze łatwiej
będzie można przenieść, tylko chyba z iOS na Androida zdaje się eSIM?
Tylko chyba tak.
Jeśli tak, to w sumie dobrze, no bo faktycznie takiej karty nie możemy po prostu przełożyć
z jednego telefonu do drugiego.
Dokładnie, bo między iOSami to już można było zrobić, natomiast tak, teraz chyba
na Androida, w razie czego można, no.
Tak, i to by było tyle ode mnie teraz.
Ten Braille Access mnie troszkę rozczarował, bo tak pamiętam spekulacje w tym
już o przeglądzie, że oj, gdyby się dało pisać wejściem ekranu Brailla, powiedzmy
na Macu, prawda, że klawiatura, obsługiwać Maca klawiaturą i tak dalej.
No niestety nie, a szkoda póki co.
No, musimy mieć ten monitor brailloski jednak podłączony i tam specjalnym akordem
gdzieś tam to wywołać.
Teraz nie pamiętam w sumie jakim, a jeżeli byśmy chcieli uzyskać więcej informacji
na ten temat, to zapraszamy do ustawień dostępności Pisma Brailla
i tam właśnie odpowiednie przełączniki.
Na iOSie właśnie dostęp brailloski to będzie, tam jest osobna sekcja,
będzie można sobie w to wejść i poczytać o tym bardziej, dokładniej.
A na Macu w narzędziu VoiceOver też pismo Brailla.
Tam mamy z kolei podsekcję anonsowane jako karty i tam jest Braille Access
nieprzetłumaczony jeszcze i tam sobie to można będzie wszystko skonfigurować,
poustawiać i tak dalej.
No i to z mojej strony chyba też będzie wszystko.
No, audycja wyszła długa. Myślę, że było dużo informacji,
które były… tak?
Nie, nic. Ja się tylko podłączyłem już, żeby też jakoś podsumować,
ale no, kontynuuj, kontynuuj, proszę.
No, po prostu właśnie chciałem powiedzieć, no, dużo było ciekawych rzeczy zapowiedziane.
Jak to często bywa, jeszcze więcej ciekawych rzeczy pojawiło się potem.
Nie wiem, czy tutaj jeszcze, jakby chciał Paweł coś tutaj dodać.
Nie, no, to ja się podzielam to, co mówisz, tak, że najciekawsze rzeczy wychodzą właśnie
gdzieś tam po jakichś potem Mastodonach, Redditach i innych rzeczach.
Także mam nadzieję, że będziemy czytali dużo takich ciekawych jeszcze raportów
i takie jakieś tips and tricks, takie porady i sztuczki zostaną tam wyłapane.
No i to pewnie teraz będzie wyglądało tak, że w przyszłych TypFlo przeglądach
i nie tylko ta informacja…
Cała masa jeszcze będzie różnych informacji, tak.
Tak, to się będzie cały czas pojawiało, a na tych, którzy po prostu czekają,
kiedy systemy się pojawią, one oczywiście pojawią się jesienią późną
i na pewno przed tym będziemy dla was mieli kolejne informacje, kolejne podcasty,
w których szczegółowo te wszystkie nowości już omówimy, pokażemy.
Jeśli jakieś jeszcze nowe rzeczy do tego czasu dojdą, no to też już po prostu
będziemy mogli o nich opowiedzieć, tak, żebyście wy wiedzieli, czego się spodziewać,
kiedy te systemy już w końcu oficjalnie się pojawią.
I jest jeszcze jedna nowość, dosłownie rzutem na taśmę, o której sobie zapomniałem,
a ja na nią szczerze mówiąc bardzo czekałem, mianowicie przypomnienia o odzwolnieniu do kogoś.
W sensie, jak ktoś zadzwoni, to w ostatnich, jako pod tym połączeniem nieodebranym
w ramach czynności na pokrętle, możemy sobie ustawić przypomnienie o odzwolnieniu
do danej osoby, czy to za godzinę, czy to w kolejnej, że tak powiem, porze dnia,
czy ustawić sobie w ogóle na później, czyli zdefiniować stricte w oparciu o kalendarz.
Także ta kolejna przydatna, jak dla mnie zwłaszcza, nowość.
Tak, trochę tak jak w poczcie, jeśli ktoś do nas dzwoni, nie możemy oddzwonić,
ale nie chcemy też zapomnieć, żeby oddzwonić, no to właśnie można sobie takie przypomnienie ustawić.
Tak to właśnie często jest, że takie najfajniejsze rzeczy to są te drobne nowości,
tak zauważyłem.
Te drobne i jest ich może jakiejś wielkiej rewolucji, to żebyśmy się nie doczekali,
no moglibyśmy mieć więcej…
No pod względem wyglądu to myślę, że tak.
No tak.
Dla osób słabowidzących myślę, że to może być trochę bardziej odczuwalna zmiana.
Dla nas voice-overem będzie trzeba się przyzwyczaić do tego, że niektóre rzeczy mogą być w innych miejscach.
Tak jak mówiliśmy, tutaj w wyszukiwaniu coś, co było przeniesione na dół.
Jeśli czegoś nie znajdziecie od razu, to coś lepiej po prostu trzeba palcem trochę gdzieś dłużej poszukać,
gdzieś milimetr w bok.
Ale dla nas to są drobne rzeczy.
Dla osób słabowidzących, no to tutaj pewnie ten okres przyzwyczajenia będzie trochę dłuższy.
No i ten Apple Intelligence.
No tych funkcji też było troszkę… My się na razie musimy obejść z Maciem i to jest przykre.
I tak mamy troszkę tych rzeczy.
No tak, ale tutaj faktycznie jest rozczarowanie, jeśli chodzi o Polskę konkretnie.
Nawet trochę o Europę cały czas nie mamy funkcji typu iPhone Mirroring.
Też cały czas różne rzeczy się dzieją.
Mówicie o tym, że może AirDrop nam zabiorą. O nie, mam nadzieję.
Oj, właśnie tak.
Więc niedosyt jest. To też trzeba sobie powiedzieć jeszcze w ramach podsumowania.
Dużo fajnych rzeczy, których na pewno bym chciał korzystać tutaj.
Właśnie to sprawdzanie połączenia.
To mógłbym teoretycznie włączyć, ale nie wiem czy chcę, żeby telefon witał dzwoniących do mnie po angielsku.
Wyobrażam sobie jak to mogłoby zadziałać w naszych realiach.
Raczej tego planowałem, nie będę włączał.
Konsternacja co najmniej.
No wiesz, Niemcy, nasi zachodni sąsiedzi mają tego sporo więcej, a my niestety.
Oni co czego nie mają to chyba tych, jeśli chodzi o te…
No właśnie, iPhone Mirroring, no bo to jednak Unia.
Jeśli chodzi o te rzeczy związane z…
No chyba, że jesteś w Szwajcarii.
Jeśli obowiązuje język niemiecki, to działa.
A no to tak, to prawda.
Ale tak, tak, masz rację generalnie.
No i też…
Tego nagrywania rozmów chyba nie ma cały czas też w Europie.
Ale to jest poprzedni rok.
Ale transkrypcje podcastów mają. Niemcy transkrypcję podcastów mają, testowałem.
A my nie.
O Boże, ktoś ręcznie doda chyba.
Ale no właśnie, trochę nie dosyć jest, ale też jest na co czekać.
Myślę, że tak już kierując się w stronę podsumowania po trzech i…
No niecałych trzech i pół godziny audycji.
Bardzo dziękuję wszystkim, którzy nas słuchali.
Czy to teraz właśnie na żywo, czy na stronie.
Oczekujcie kolejnych audycji związanych z nowościami Apple.
A ja tutaj też jeszcze chciałbym bardzo podziękować wszystkim moim kolegom w studiu.
Dziękuję…
Był z wami Paweł Masarczyk, Maciek Walczak.
Mówiący do was, słuchaj, Piotr Machacz.
No jeszcze tutaj w realizacji Tomek Bilecki.
Bardzo wam wszystkim dziękujemy za uwagę.
Dziękujemy za usłyszenia.
Bardzo wielkie dzięki, to bardzo na przyjemności.
I do usłyszenia.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Lechabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

TyfloPodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak i przedstawiają metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych