Nowości Apple – Czerwiec 2023 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Delikatne opóźnienie, ale jesteśmy.
To jest Tyflo Radio na żywo z kolejnym odcinkiem
Tyflo Podcastu, dnia 5 czerwca roku 2023.
No i taka trochę audycja nam ekspresowa.
Zostaw wiadomości z ostatniej chwili,
bo właśnie zakończyła się tegoroczna konferencja,
a raczej nie konferencja, tylko konferencja prasowa.
To główne wydarzenie, keynote w ramach wydarzenia
WWDC, Worldwide Developers Conference firmy Apple.
No i jak to co roku bywa, wiemy już co nowego.
Tym razem nie tylko nowe oprogramowanie,
ale też nowe urządzenie.
Urządzenia w liczbie mnogiej, tak na dobrą sprawę,
ale o tym wszystkim za chwilę.
Za mikrofonem pierwszym Paweł Masarczyk,
ze mną dzisiaj w studio Mikołaj Rotnicki.
Dzień dobry wieczór wszystkim.
Witaj Mikołaju i Piotr Machacz.
Dzień dobry wieczór, cześć.
Witajcie. No i jak konferencja?
Ja myślę, że przede wszystkim to jest pierwsza konferencja,
na którą nie zabłądziłem.
Trafiłem w kilka sekund.
To nie jest normą, bo w zeszłym roku mam wrażenie,
że w aplikacji Apple Developers nie było tak łatwo
kliknąć w tego streama.
Gdzieś on był zagrzebany.
Ja w aplikacji TV trochę się naszukałem,
ale znalazłem i to też przed konferencją na szczęście.
A ja tradycyjnie przed Maciem w Safari
sobie odpaliłem na stronie głównej.
Każdy z nas inaczej.
Tak, każdy ma jakąś metodę.
Najważniejsze jest to, że jak zwykle była
ta transmisja wyposażona w audiodeskrypcję.
Ja nigdy nie słuchałem audiodeskrypcji
i szczerze mówiąc nigdy nie zdążyłem na czas,
żeby być w tej transmisji
przed rozpoczęciem wydarzenia.
I nie zwróciłem nigdy uwagi też przez to na to,
że jak jeszcze leci sobie ta muzyczka,
taka elevator music.
Ja lubię takie muzyczki w ogóle.
Które grają na przykład w sklepach,
jak się testuje głośniki.
To było coś takiego.
I w tle od czasu do czasu troszkę jak komunikat
o przerwanym nadawaniu,
czy zakończonym nadawaniu
leciała informacja, że słuchasz audiodeskrypcji.
I opis tej grafiki statycznej,
tej animacji, która przemieszczała się
na ekranie w kółko i w kółko i w kółko.
No i potem wszedł na scenę
cały, może nie cały na biało,
ale też w jakimś rozbłysku
efektów graficznych Tim Cook.
No i się zaczęło.
Tenczowa scena oczywiście trzeba dodać.
Tak, tak.
Scena w ogóle była w centrum tego spotka.
Całego Apple Park.
W ogrodach właściwie, bo ta siedziba jest taka
szklany, gigantyczny budynek.
Jak pierścień, a w środku jest
taki ogród po prostu.
No i on się w tych ogrodach przechadzał.
Była tam jakaś taka scena zrobiona
i wyglądało to tak trochę
jak amfiteatr
z łukiem tęczy.
O, no to
miło znać takie szczegóły.
Ja w ogóle, odkąd
Apple ma te konferencje
z audiodeskrypcją,
za każdym razem jak oni coś nowego zapowiadają
i pokazują, w ogóle zaczęło się wszystko od takiej
animacji osoby
programisty, który siedział przy komputerze
i coś tam sobie kodował
i nagle
po prostu
wyłania się coś tego, jakaś tam bańka
wylatuje przez okno, przewraca się kubek.
Ja mając już doświadczenie z audiodeskrypcją
na przykład seriali Netflixowych
spodziewałem się jakiejś sceny akcji
po kraju Stranger Things, ale
no nie nastąpiło to
i szczerze mówiąc nigdy to nie następuje. Po prostu
wchodzi Tim Cook i zaczyna
i to też bez względnego jakiegoś
przedłużania, od razu wchodzi
praktycznie po kilku zdaniach do
sedna. No i tym pierwszym sednem
były dzisiaj nowe MacBooki
Air,
MacStudio i Mackie Pro.
Macie
pospisywane tam specyfikacje?
Tak, tak skrótowo,
chyba, że Ty Mikołaju też coś
dodać. Znaczy, no pierwszy chyba był
prezentowany ten MacBook Air.
Tak, 15-calowy. Powiększony jako 15-calowy,
bo do tej pory
to były tylko te trzynastki.
Więc ona nawet
15-3 z tego co udało mi się
tam gdzieś zaznaczyć.
No i
podobno, podobno też się oczywiście
chwalili, bo to wiadomo, że Apple też się chwali,
że to jest
najcieńszy
15-calowy laptop
na świecie. Tak 11,5 milimetra
tutaj sobie zapisałem grubości.
Co to
jeszcze może też osoby niewidome
może zaciekawić, to jest to, że ten
15-calowy MacBook Air ma sześć
głośników, wspiera dźwięk przestrzenny,
ta trzynastka ma tylko dwa.
No fajnie, przynajmniej z tego
co wiem w MacBookach Pro, no to ten
system sześciogłośnikowy jest
całkiem fajny, więc
tutaj dostajemy też lepszą jakość dźwięku.
Różnica w cenie to jest
chyba jakieś 100 dolarów, tak?
No ten był 12,99
jeśli chodzi o
podstawową wersję.
1300 dolarów.
Zobaczymy jak
to wyjdzie w Polsce,
ale
no chyba tak cenowo jak to na MacBooki.
Większych zaskoczeń nie ma.
No 18 godzin na baterii, więc to bardzo
dużo.
I to duża
rewolucja względem poprzednich modeli, bo ja mam wrażenie, że
o tych sześciogłośnikach już słyszałem, ale to w Pro.
Tak, to w tych Pro to jest pierwszy raz, kiedy
to się pojawiło w MacBookach Air. No MacBooki Air
są mimo wszystko
w tej piętnastocelowej wersji chyba dużo
lżejsze niż taki MacBook Pro.
Tutaj oczywiście też nie mamy wentylatorów, więc
taki komputer można łatwiej przenieść.
On nie ma tego ekranu tak jasnego
jak MacBook Pro. MacBook Pro jednak
ma chyba dużo lepszy, jaśniejszy ekran.
Tam chyba jasność to jest jakieś 1200 albo
300 nitów, tu jest tylko 500, więc
no tutaj jacyś graficy to będą
woleli sobie kupić te MacBooki Pro,
które mają też lepsze procesory.
A jak ktoś chce po prostu taki większy ekran,
nie wiem, bo po prostu tak woli,
po jakiegoś oglądania filmów,
czy coś w tym stylu, no to
myślę, że takich osób
taki sprzęt się sprawdzi,
zwłaszcza, że to jest dużo tańsze od takiego podstawowego
MacBooka Pro
1436.
Ta linia Air od samego początku zawsze była
taka, no takim
można powiedzieć, takim laptopem wejścia
można powiedzieć.
Tak.
I to jest też pierwszy raz, kiedy MacBooki Air mają
M2?
A, 13 miały.
Tutaj są te same procesory
obu, czyli M2 właśnie,
jak powiedziałeś.
Jasne. Wy możecie się z nami
oczywiście kontaktować.
kontakt.tyflopodcast.net
to jeżeli chcielibyście się z nami kontaktować
pisemnie, oczywiście również aplikacje,
czy ta na Windowsa Dawida Piepera,
czy Tyflocentrum na iOS
Arka Świętnickiego, kto ma,
możecie się z nami kontaktować
także głosowo
tyflopodcast.net ukośnik zoom
no i też możecie pisać komentarze, to jeszcze
pisę mnie na Facebooku i YouTubie, bo tam
oprócz naszego standardowego streama
radiowego również transmitujemy,
więc dajcie znać, czy oglądaliście
konferencję, słuchaliście,
przeżywaliście razem z nami,
tak samo jak my mniej, coś Was podekscytowało,
coś Was zawiodło, piszcie, dzwońcie,
opowiadajcie.
Może tak? Tak, proszę.
Chciałem jeszcze dokończyć wątek nowych Maców,
bo akurat tam jeszcze kilka nowych się pojawiło,
zresztą to właśnie mówiliśmy o tych wejściowych laptopach,
a teraz mówimy o
komputerach stacjonarnych,
pojawił się też nowy
Max Studio z procesorem M.2 Max,
to jest chyba pierwszy raz, kiedy ten procesor się pojawił,
chyba, że już był w MacBookach Pro, nie pamiętam
szczerze, nie wiem, czy Mikołaju
to kojarzysz. Nie, on chyba nawet jest
jako nowy w ogóle. Jako nowość, no właśnie,
też mi się tak wydaje. Tam było M.2 Pro
było, a teraz zaprezentowano
M.2 Max. I jeszcze
M.2 Ultra, to już
taki… Tak, M.2 Ultra
to jest dosłownie dwa
procesory M.2 Max połączone ze sobą,
ale zacznijmy od początku, ten M.2 Max
to jest 25% szybszy od
M.1 Max,
czyli tutaj mamy
to jest w procesorze, a o 50%
w grafice, więc tutaj
jakieś przetwarzanie filmów. M.2 Ultra, no to już
mówiliśmy, to jakby dwa połączone procesory
M.2 Max. Teraz mamy
24-ryteniowy procesor,
który jest też 20% szybszy,
32-ryteniowy
silnik neuronowy. I tutaj Apple się chwaliło
o czymś ciekawym, bo ten procesor M.2
Ultra może wspierać
do 192 GB
z unifikowanej pamięci RAM. To jest
dosyć dużo i tutaj się chwalili, że
ten procesor jest w stanie spokojnie
trenować duże
modele, na przykład właśnie
sztucznej inteligencji różnej,
których nawet czasami na takich dobrych
kartach graficznych się nie da by trenować.
I to może…
Poczułem również a propos tych
licytowania się
ilości rdzeni,
tam gdzieś mi mignęło 76
rdzeni graficznych.
Bardzo możliwe, że coraz więcej
jest tych rdzeni. Ilości strumieni wideo
4 czy 8 kart.
22 strumienie.
Tak, i to w ogóle było podawane
jako przykład, że NBC
chyba i w ogóle stacje telewizyjne
wykorzystują do produkcji swoich
programów telewizyjnych te maki.
No właśnie wyszedł nowy
Max Studio, który ma ten procesor
albo Max albo Ultra, można sobie wybrać,
ale też wyszedł ostatni Mac, który jeszcze wcześniej
był na Intelu, czyli Mac Pro,
który zaczyna się od procesora M2 Ultra,
ale to co ma ten Mac Pro, czego nie mają
te inne maki, to jest to, że to jest taki
bardziej typowy komputer, łącznie z tym,
że mamy wejścia na karty
na PCI, więc tutaj już naprawdę jak ktoś
potrzebuje jeszcze sobie jakąś grafikę albo pamięć
dołożyć czy coś, no to
ten komputer można sobie jeszcze ulepszać
a te inne maki, no to kupimy
to już tam tak naprawdę nic nie możemy zmienić
co jest w środku, no tutaj możemy
sobie karty różne
dokładać, no i oczywiście mamy ten procesor, tak jak już
wspominaliście, który jest naprawdę potężny
No i oczywiście
fajna cena, bo ten ma ponad 6 tysięcy dolarów
Chyba coś koło tego, tak
Któryś z tych maków was zainteresował
jakoś tak, żeby… Myślę, że
pewnie szczególnie o tych MacBookach
R czy… Znaczy MacBook
R ja zawsze sobie ceniłem
tą linię, bo ona jest taka jak powiedziałem
trochę wejściowa, wiadomo, że te ceny
to i tak wszystkich sprzętów Apple’a trochę
poszybowały, jeszcze też pamiętamy
być może czasy jak tam
MacBook Air nawet był gdzieś za około 4 tysiące
złotych, ale to były dawne czasy
ale jako taki
jakby laptop wejściowy dla
ludzi po prostu tak zwykłych
do pracy, na studia czy coś
to
jak najbardziej po prostu
Tak, no ja akurat wolę mniejsze ekrany
wcześniej miałem 15-calowego MacBooka Pro, ale
potem wróciłem do maków, no to już
kupiłem trzynastkę i no to jest
jak to się całkiem
widomo, no chyba, że bardzo mu zależy na tych głośnikach
to raczej myślę, że te trzynastki też są fajne
mamy też te 14-calowe MacBooki
Pro, jakby ktoś potrzebował większej
mocy obliczeniowej
które też nie są jakoś bardzo większe
bo tam są węższe ramki
też na tym ekranie
ale ktoś właśnie potrzebuje większego ekranu, może tutaj osoby
spapowidzące wolałyby mieć trochę
większy ekran, a nie płacić za
MacBooka Pro, no to myślę, że fajny sprzęt
No i jeszcze taka też dodatkowa trochę
korzyść jak już też jesteśmy przy tych nawet cenach
tak, no bo wejście tego MacBooka
Air nowego
tam też powiedzieli, że
spadły ceny z tego powodu tych
mniejszych MacBooków Air starszych, nie, więc
to zawsze tak idzie za tobą, więc
niejako ten postęp
znowu sprawia, że ewentualnie dla
kogoś kto
skupił się na jakiegoś nowego MacBooka
a nie pasowała mu powiedzmy cena
no to tam nie wiem jak to się przekłada
obniżenie ceny powiedzmy
o 100 dolarów w Stanach, ale jak to w Polsce
się przełoży to czasami też różnie
bywa, ale wiadomo, że trochę taniej zawsze może być
Tak, no więc jeżeli
znosiliście się z zamiarem zakupu
to rozejrzyjcie się, bo opcji
jest w tym momencie dużo, można sobie
wybrać taką pod siebie
Tak, i też warto powiedzieć, że te
Macie w ogóle
zamówienia są dostępne już
znaczy zamówienia od dzisiaj, a dostawy
od przyszłego tygodnia, z tego co wiem
No i super, i to na całym świecie
Tak, ok, super
No i potem od
MacBooków nowych i Maców
innych poszybowaliśmy
znaną nam ścieżką do nowego
iOS-a 17 i
no nie wydarzyło się wbrew
pozorom wiele i mam wrażenie,
że mówimy to co roku, ale z drugiej strony
ja sobie tak przed dzisiejszym spotkaniem
przed dzisiejszą konferencją i naszym tu spotkaniem
uświadomiłem, że ja lubię
te konferencje Apple i lubię podejście
Apple do tego co prezentują za
jedną rzecz
że nie kryją się
za wielkimi słowami i za wielkimi
powiedzmy takimi
trendami, buzzwordami
i takimi słowami klucz, które
w tym momencie są modne w
technologii, czyli tak jak tutaj się naśmiewaliśmy
kiedyś z konferencji Google, że słowo
sztuczna inteligencja
było odmieniane przez wszystkie przypadki
tylko, że angielski nie ma przypadków
to
Apple pokazuje praktyczne funkcje
i to jest coś, co mi się zawsze podobało
w starej technologii, czyli właśnie
telefony komórkowe, które wychodziły we wczesnych latach
2000, tutaj znów się odwołuję do mojej audycji
sprzed kilku miesięcy
one konkurowały
funkcjami, nawet nie tym, że
który ma mocniejsze podzespoły,
który ma, nie wiem, bardziej wydolny
tam ekran, czy pamięć
RAM, czy coś jeszcze, czy procesor
tylko jakie oferuje funkcje i tutaj
Apple też w sumie idzie tą ścieżką, że
my przyzwyczajeni już do takich
wielkich premier, do tego, że
co roku mamy jakiś nowy trend w technologii,
który jest eksplorowany na wszystkie
możliwe sposoby
nagle widzimy Apple, który pokaże nam
no tu w wiadomościach daliśmy to, w zdjęciach to
w telefonie to, no i stwierdzamy
w sumie nic się nie wydarzyło
ale z drugiej strony oni
skupiają się na tym, żeby pokazywać te praktyczne
funkcje, które, te drobne rzeczy,
które albo nam życie ułatwią
no albo w jakiś sposób
sprawią, że zauważymy, że z naszego telefonu
korzysta się w ogóle inaczej
no i tak nie było inaczej tym
razem, bo zaczęło się od
aplikacji telefon i
FaceTime i wiadomości
no w telefonie coś, co już chyba
potwierdziliście przed audycją w naszych rozmowach
tutaj jeszcze zakulisowych
czyli transkrypcja
poczty głosowej
na żywo
po co? Ano po to, że jeżeli
otrzymujemy od kogoś połączenie
nie wiemy, czy chcemy to odebrać
czy nie, możemy
tak
ostrożnie, asekuracyjnie
wysłać to połączenie na pocztę głosową
i dzięki
transkrypcji na żywo przeczytać, co ta osoba
tam na żywo mówi, czy to ważne
czy to ktoś w ogóle
kogo znamy, z kim chcemy rozmawiać
czy jakiś telemarketing
i możemy w trakcie jeszcze jak ta osoba
się nagrywa podjąć tą rozmowę
i zdecydować, nie, nie, jednak to jest ważne
muszę porozmawiać
no i ta funkcja już
wiemy, że w Polsce na ten moment
przynajmniej dostępna nie będzie
prawda?
Tak, bo nie znaczenie na razie po angielsku
tylko będzie, no ale to jest takie troszeczkę jak to się mówi
oczywiste, taka trochę oczywista
oczywistość, chociaż czasami Apple potrafi
zaskoczyć, no ale
na pewno jest kwestia taka, że
no coś oczywiście
wchodzi, potem czekamy
tak jak na Siri już ile lat?
12
nadal go nie ma
ale
ale to pokazuje
troszeczkę jakąś tam zawsze innowację
i zawsze to jest ważne
to co powiedziałeś
Pawle, że oni
nie dają, że tak powiem
jakichś mnóstwa wodotrysków, robimy to, to
to i to, tylko zawsze to
jest w kontekście użytkowania, tak?
Czyli zawsze pokazują
jak dana funkcja
gdzieś tam się usprawnia
po to, żeby usprawnić tam konkretną
rzecz, w tym przypadku akurat
rozmowy akurat
Tak i w ogóle fajnie, że coś odnośnie rozmów zrobili
bo można by pomyśleć, że
zasadniczo wszystko się opiera już teraz
na tych internetowych protokołach
FaceTime, iMessage
Nearby Share, o którym też za chwileczkę
powiemy, natomiast
tak naprawdę iPhone jest też
telefonem, i można
o tym czasem zapomnieć, jest bardzo łatwo i bardzo
jest to kuszące, ale jest to telefon
smartfon, który potrafi też
wykonywać połączenia
więc, ale to jest jedyna
nowość jeśli chodzi, ale nie, nie jedyna
nowość, bo też
doszły, no jak to
będzie po polsku nazwane?
Ja to napisałem wizytówki, ale czy dobrze
myślę to
Możemy obstawiać jak przetłumaczy to polski
oddział tłumaczeniowy
A w oryginale jak brzmiało?
Posters chyba po prostu
Posters
Tak na marginesie, żeby tak jeszcze
uściślić te wizytówki, to jest w ogóle
też takie coś, co już po części
no w iOS 16 trochę
było tylko jest rozwijane
to może jest takie coś, co
cieszy bardziej oko osoby widzącej
w każdym razie chodzi głównie o to
że na ekranie
głównym, tym zablokowanym
jak dzwoni do nas
jakaś osoba i jest przypięta
do niej właśnie ten poster
ja na to po prostu przetłumaczyłem
wprost plakacik taki
no to po prostu wyświetla
nam się zdjęcie tej osoby
na całym ekranie, ale jeszcze
oprócz tego można customizować
czcionki
i tam dali taką ciekawą
rzecz, no bo
my to widzimy, znaczy osoba widząca
widzi to w pionowym układzie ekranu
i tam dali
taką jakby
może fajną cechę dla języka
japońskiego, gdzie te
napisy pisane w pionie, to już teraz nie pamiętam
czy to jest katakana czy hiragana
czy któreś z nich jest pisane pionowo
i że one będą się
prezentować wspaniale
właśnie między innymi z japońskimi
napisami w pionie na przykład, ale
oczywiście w innych językach też. Tak, ale też
emoji będzie można dodawać do tych zdjęć
będzie można w jakiś sposób je obmalowywać
nie do końca zrozumiałem
czy ta funkcja sprawia, że inni
mogą ustawić jak się będą
wyświetlać u nas, czy to my możemy sobie
spersonalizować? Nie, my u nas, to jest
nasza personalizacja po prostu lokalna.
No ciekawe czy Apple doda jakiś taki
twist dźwiękowy, zmyślą
właśnie też troszkę o nas, ale
Apple lubił czasem takie interfejsy
równoległe, wszak myszka Miki nie tylko wygląda
i na Apple Watchu
a też zapowiada nam godzinę
może jakieś efekty dzwonków
by doszły, jakieś tam
ulepszacze, upiększacze, no gadżecik,
ale może pomyślą.
No dobra, ale to nie
wszystko jeśli chodzi o połączenia, bo
też FaceTime doczeka się
transkrypcji, ale też
przez to, że w FaceTime’ie pojawi
się poczta głosowa.
Poczta wideo chyba, no nie? Bo tak
dzwonisz na wideo. Poczta wideo, tak. Będzie można
po prostu w razie czego, jeżeli ktoś nie odbiera
a wydarzyło się coś takiego, no
bardzo ważnego
i chcemy komuś
pokazać, że
dobijamy się tu z jakimś tam wydarzeniem,
które teraz się dzieje i
tego to można nagrać taką
odpowiednik wiadomości wideo
i ona się po prostu gdzieś tam zachowa
takim, no nie wiem, video voicemail
że tak powiem i ta osoba będzie mogła
sobie odtworzyć tą
wiadomość wideo.
No właśnie wiemy, czy to będzie jakaś
osobna sekcja te wiadomości, czy to po prostu
pójdzie jako filmik, bądź głosówka w iMessage?
Nie wiem. Jak to ma WhatsApp rozwiązane, czy Messenger?
Trudno powiedzieć.
No tam było pokazywane wszystko z poziomu
FaceTime’a jako takiego,
ale ja sądzę, że to może być po prostu na takiej
zasadzie, że pojawi się powiadomienie,
ktoś to kliknie, no i gdzieś tam… Może coś się będzie
wydało na tej zakładce, poczta głosowa
w aplikacji. Być może.
Zobaczymy. I z FaceTime’a to chyba
było tyle, prawda? Potem od razu
przeszliśmy do iMessage
no i w iMessage tych nowości troszkę jest. One są w dużej
części jakieś bardzo wizualne.
Jedna rzecz, która mi się
zwróciła i chwała im za to,
ukryte zostaną aplikacje pod kolejny
przycisk.
Aplikacje te iMessage, które były wybyszone
na wierzch i
zawadzały na tym ekranie tak, że ja mam problem
znaleźć często pole edycji, żeby napisać wiadomość.
To prawda. Z drugiej strony pewnie osoby,
które lubią nagrywać wiadomości audio.
Ja nie wiem, ile takich osób jest w Polsce. Za granicą
chyba trochę jest to pewno. Będą rozczarowane,
bo to już było ukryte, bo tam trzeba było wejść
w wiadomości i potem w audio. Dopiero potem
u przycisku nagrań to teraz będą miały jeszcze
ten przycisk, ale generalnie zgadzam
się z Tobą, bo tam naprawdę był straszny bałagan.
No i te wiadomości audio
też będą miały… A właśnie.
Tak. A tak.
Czyli będzie można nagrać wiadomość głosową,
a w tle zrobi się też transkrypcja,
czyli ewentualnie
przypuszczam, że to znowu też będzie na tą
chwilę. No nie wiemy, czy to będzie tylko
po angielsku czy nie, ale tak coś
czuję, że na razie chyba tak.
Jeszcze tutaj w wiadomościach się pojawiły
reakcje naklejkami, to też coś, co już
inne komunikatory miały. No wiadomości miały
reakcje, ale takie chyba pięcia,
cztery albo pięciaki podstawowych.
Każda z nich miała swój dźwięk powiadomień na tabelę,
co też takie fajne.
Ale mniej więcej właśnie tutaj
te naklejki, tam się też
interfejs pozmieniał. Można nawet
ze zdjęć kogoś
wyciąć tak dosłownie i
zmienić w naklejkę. I te naklejki
będą dostępne w ogóle
wszędzie, gdzie mamy klawiaturę Emoji.
Czyli nawet tam
mówili, że same emoji można będzie
w naklejkę zmienić i tam
jakieś animacje dodawać, różne rzeczy.
I będzie można na przykład
w ogóle naklejkę przykleić
do już wcześniejszych
na tych tak zwanych bąbelków
wiadomości, czyli poprzednie jak są
jakieś wiadomości, będzie można jakby
przykleić jakąś osobę
i ona to wtedy też zobaczy
i to będzie jakby
oznaczenie na przykład, że to jest
ważne.
Jeszcze z takich
mniejszych nowości, wiadomości, to tutaj sobie
zapisałem na przykład, że
w wyszukiwaniu mamy filtry, więc możemy sobie jakoś
jeszcze bardziej precyzywnie
wyszukiwać.
I jeśli otworzymy jakąś
konwersację, gdzie mamy dużo nieprzeczytanych wiadomości
będzie przycisk, który nam to automatycznie
przewinie do pierwszej
nieprzeczytanej wiadomości.
A to jest super, bo tego na przykład
nie ma, albo ciężko
to znaleźć mam wrażenie w Messengerze na przykład.
A Whatsapp
ma to bez problemu, Telegram
ma to bez problemu, Signal chyba też.
No, także
super,
super, bo to bardzo ważna rzecz, zwłaszcza jak
ktoś chce na poważnie założyć sobie grupkę
na iMessage’u i z niej korzystać.
Też chyba, jeśli chodzi o lokalizacje,
mają się pojawiać one.
Jeżeli mamy przez aplikację
znajdź,
mamy znajomych,
których lokalizacja ma być udostępnioną,
no to ma się ona teraz pojawiać gdzieś tam
w jednej linii.
Znaczy to nawet nie tylko to, tylko to w ogóle
jakby jest taka dodatkowa funkcja.
To się nazywa check-in.
I to będzie część wiadomości.
I to ma być na zasadzie takiej, że
jeżeli mamy jakichś tam swoich bliskich znajomych,
rodzinę, to
ona oczywiście też będzie wspierana
gdzieś tam, jakąś tam sztuczną inteligencją
na zasadzie, że załóżmy, no
wracamy do domu, a nasza, nie wiem,
druga połowa albo mamusia
gdzieś tam się martwi, czy my dojechaliśmy.
No to na bazie tego,
jak my się gdzieś tam poruszamy.
Oczywiście to jest wcześniej do włączenia po obu
stronach, także to nie jest tak, że
dana osoba będzie nas śledzić.
Ale wystarczy jak dotrzemy do jakiegoś tam
miejsca i
ta aplikacja automatyczna,
znaczy ta funkcja automatycznie
wyśle iMessage do
mamy, do synek dojechał na przykład.
Ale jeżeli na przykład, też
dali taki przykład, jeżeli
powiedzmy dojeżdża, załóżmy tam
dosyć często do jakiegoś miejsca, a
coś się wydarzy
po drodze, no nie wiem,
już powinien być,
a jeszcze go nie ma,
a cały czas gdzieś jest z jakiejś innej
lokalizacji, to on jest w stanie,
a gdyby się nawet nam coś
stało, to on jest w stanie
nawet podzielić informację,
że na przykład mamy bliski rozładowania
telefon, czyli nawet status baterii wysłać.
Słuchaj, bo tam synek
jeszcze nie dojechał, masz jakieś problemy z telefonem
i jego bateria to jest 2%,
na przykład. Więc tam gdzieś takie
coś też wychwyciłem.
To jest, może być bardzo przydatna funkcja,
zwłaszcza dla osób na przykład, które
jakieś pierwsze swoje
kroki z orientacją przestrzenną
stawiają i mają wokół
siebie takie wspierające środowisko,
które chce im w tym pomóc,
ale jednocześnie chciałoby też wiedzieć,
gdyby coś się stało, że trzeba zareagować,
czy rodzice, czy właśnie druga
połowa, czy ktokolwiek,
kto nas użycie.
Albo dzieci na przykład,
albo wręcz nawet
w drugą stronę.
Jeżeli mamy powiedzmy jakiegoś seniora,
który może mieć
jakieś tam problemy
z poruszaniem się,
albo nie daj Boże
problemy typu jakaś choroba
Alzheimera, czy coś takiego,
to musimy śledzić tą osobę w jakiś sposób
i aplikacja jakby sama,
znaczy aplikacja,
ta funkcja jakby sama
w sposób inteligentny,
na podstawie analizy tych typowych zachowań
będzie mogła zalarmować
ewentualnie, że słuchaj, ale Twoja babcia
jeszcze do domu nie dotarła, coś się chyba stało.
No tak.
Ale to jest chyba rozbudowanie funkcji, która już poniekąd
jest, bo w aplikacji znajdź
przecież była możliwość,
jeżeli mieliśmy znajomych pododawanych, których
mieliśmy udostępnioną, żeby informowało
nas kierodotorom w określonym miejscu.
Tak, można. A tu się ma to dziać niby tak
automagicznie po prostu.
W sensie lokalizacja nie jest dostępna
cały czas. W momencie,
kiedy coś zaczyna się dziać niepokojącego,
to wtedy ona się włącza na całkowite
udostępnianie, ale
nieważne, my nie musimy wybierać miejsca,
które jest domem,
to ta druga strona określa czym jest dom
i wtedy to się wszystko dzieje też
automatycznie. No więc tutaj
chyba o to chodzi. No i tam jeszcze przy
odpowiedziach chyba, że
inline, czyli jakby w jednej
linii z wiadomością, jeżeli coś tam
odpowiadaliśmy komuś,
to teraz ma to jakoś tam
lepiej wyglądać. Czyli
no właśnie. Tak.
I do czego oni następnie
przeszli? Zdaje się, że
do tych funkcji nearby share.
Nawet namedrop
to się nazywa u nich.
Tak, znaczy namedrop to jest
jedna z tych nowych funkcji.
Tam kilka nowości weszło chyba.
To ja może od razu korzystając z okazji przeczytam
właśnie komentarz jednego z naszych słuchaczy.
Na YouTubie się pojawił
komentarz użytkownika, który podpisuje
się jako Hello Field Day.
Dzień dobry, widziałem też
prezentację i to co mi się spodobało
to wymiana kontaktów w telefonie
przez zbliżenie.
Tak, właśnie to jest ta funkcja
namedrop. Tutaj dla osób, które
nie znają języka angielskiego
to wyjaśnienie to jest bardzo fajna gra
słów, bo namedropping
to jest praktyka chwalenia się,
że znam sławne osoby. Czyli
rzucam nazwiskami, tak, na lewo, prawo.
Ja to spotkałem Brada Pitta,
a ja to w sumie regularnie chodzę na basen
tam z
Fredem Durstem z Limp Bizkit. Nie wiem czemu taki
przykład, ale
to o co chodzi w namedroppingu,
że się po prostu rzuca imionami gdzieś tam na lewo
i prawo, jakimiś ksywkami,
imionami, nazwiskami. No i my możemy
tak rzucić swoją, i chyba nie tylko,
bo to jest ogólnie wymiana jakichkolwiek kontaktów,
przez właśnie
Nearbyshare. Do wszystkiego można powiedzieć.
No to jest jakby, to też jest nawet
troszkę z jednej strony oczywiście tutaj masz
to co przed wieczką
powiedziałeś, a z drugiej strony trochę nawiązanie
do airdropa, tak, bo to jest naprawdę
przez to, przy czym jakby
samo wywołanie
tego będzie się działo już po prostu
przez samo zbliżenie tych iPhone’ów do siebie.
Czyli
one się jakby wzajemnie
wykryją i one jakby się domyśli,
że chodzi nam o przekazanie
kontaktu i na telefonie
wysyłającym wiadomość
pojawi się informacja
słuchaj, który tam numer
z twoich kontaktów, czy
który numer z twoich tych ma
mamy przekazać, czy całe, czy wszystkie
i tak dalej. I to samo też
będzie się działo a propos tych zbliżeniowych
rzeczy. Była taka
właśnie też praktyczna, bo mi się też właśnie to podoba,
to są takie praktyczne case’y
użycia tego, gdzie masz na przykład dwie osoby,
które wspólnie uprawiają
jogging i ta opcja
share play też będzie dostępna, czyli na przykład
dwóch z iPhone’ami się spotka,
jeden słucha takiej muzyki, drugi takiej,
a wiesz co, słuchaj,
puśćmy sobie to, co ty słuchasz, tak, i wystarczy zbliżyć
te iPhone’y, rozpoczynamy bieg
i oboje na słuchawkach słyszymy tą samą
piosenkę. A bo oglądamy
film z osobą widzącą, na przykład na Reflexie,
akurat chyba Reflex tego nie wspiera, ale Disney+,
na przykład, czy Apple TV, tak, i my sobie
z audiodeskrypcją, a on, ta druga osoba bez
słuchawki. Albo gramy w gry.
Właśnie. Albo gramy w gry. Czyli wszystko
to, co do tej pory przez share play robiliśmy przez
FaceTime’a, czyli musieliśmy być połączeni
w tej przestrzeni wirtualnej,
to samo możemy teraz robić w tak zwanym
potocznie realu. Wystarczy po prostu
zetknąć telefony. No i to jest
super. Z ciekawości, jak ktoś testował
tą muzykę, czy my, mając taką wspólną
sesję, możemy też
sterować jakąś tym, nie wiem, podrzucać nasze
słuchawki, albo tam sterować
odtwarzanie. Da się, tak, na pewno
się da, zresztą to też było później
omawiane w kontekście samochodów, ale
chyba się da, ja akurat tego nie testowałem, bo ja
mam Spotify, a więc
Spotify chyba też to wspiera,
ale akurat.
Tak, znaczy tam jest taka akcja, tam była
taka akcja właśnie, bo też było się nawiązanie do tego,
że będzie można to samo zrobić w ogóle
w samochodzie, gdzie tam, nie wiem, bo
załóżmy, nie wiem, rodzice jadą z przodu, z tyłu
dzieci i wszyscy mogą
sobie zrobić wspólną sesję, tak, i tam ewentualnie,
nie wiem, kolejni użytkownicy mogą
do tej sesji dorzucać na przykład kolejny
utwór, kolejny, nie wiem,
film do obejrzenia i
tak dalej, nie?
No i to jest super, ja
lubię takie grupowe inicjatywy.
No i przeszliśmy
chyba potem, bo to już
z Nearby Shell było chyba wszystko.
A, nie, jeszcze jedna rzecz.
One more thing.
Jeżeli przesyłamy nawet jakiś
większy plik i zdarzy nam się, że my
z naszym iPhone’em odejdziemy sobie poza zasięg
tego tradycyjnego Nearby Shell,
to już nie będzie tak, że nam się zerwie
połączenie, tylko tradycyjnym internetem
ten plik będzie się dalej wysyłał.
Dwa słowa. Było jakieś usprawnionym
wpisywaniu kles klawiatury
i dyktowaniu, gdzieś tam
bardziej dokładnym niby.
Tak, to jest autokorekta
obarta na uczeniu maszynowym,
która jest podobno
nawet do tego stopnia działająca, że
po pierwsze
potrafi nawet nam
sproponować całe zdania,
jak już się nauczy naszego stylu pisania.
Po drugie, to gdzieś
właśnie można później pojedyncze słowa
jakoś poprawiać. To też powinno działać po polsku,
co ciekawe.
A po trzecie, tutaj
to też na propos takich rzeczy, które
tak mi się podobały, tutaj Apple
nawiązało do tego, że autokorekta,
jeśli ją o to poprosimy,
pozwoli nam też pisać
takie, to ładnie nazwijmy,
mniej ładne słowa.
O, no to miło
słyszeć, że nie jesteśmy tu ograniczeń, bo
czasy są ciężkie.
To był taki klasyczny przypadek słowa
ducking w angielsku.
Tak.
Czasy są ciężkie, trzeba się czasami
też szczerze wyrazić i myślę, że fajnie, że
Big Tech to dostrzega.
Natomiast
jeśli chodzi o to dyktowanie,
ciekawe, czy to w polskim będzie działać i też ciekawe,
bo to ma być oparte o jakiś nowy silnik
w ogóle dyktowania, neuralny.
Nawet chyba w języku angielskim
ludzie na to dyktowanie offline narzekali
z ostatniego iOS-a, z tego co pamiętam.
I na Siri, tą na urządzeniu
i na dyktowanie, że to reaguje
z opóźnieniem, nie rozumie prostych
poleceń, nie radzi sobie
z dyktowaniem prostych słów.
Oby teraz było lepiej, no i oby też
to się przełożyło na język nasz, polski.
Ciekawe,
co na drugą też, czy na przykład wejdzie
po polsku wpisywanie przez przeciąganie.
No byłoby fajnie,
ale też jakoś nigdzie o tym nie pisało, więc…
Właśnie.
No i poprawa całych zdań,
to też mówiłeś Piotrze, tak? Że poprawa błędów
gramatycznych w całych zdaniach.
No w sumie tak, bo
to też w kontekście tej autokorekty, ale fajnie, że
na to zwróciłeś uwagę, tak, bo tam też…
Gramarli nam się zrobi z tego, czy tam
language tool, tak?
No taki offline’owy language tool na urządzeniu,
to by się przydał.
Tak.
I po klawiaturze
przeszliśmy do nowych doświadczeń na iOS-ie,
czyli
tak jak już mówiliśmy, nastąpił jakiś chyba
Sherlocking i pojawi się
to właśnie, jak to przetłumaczą?
Dziennik? Dzienniczek? Bo chyba nie pamiętnik.
Pamiętnik, ja to napisałem.
Journal, no czyli tak, można…
Będzie nowa aplikacja,
która z jednej strony
ma za zadanie po prostu rodzaj
naszego pamiętnika, który możemy
wprowadzić, ale ona będzie
w oparciu o sugestie, na przykład
z danego dnia, zrobionych zdjęć,
miejsc, w których byliśmy
i tam nawet będzie coś takiego, że te sugestie
będą jakby do stworzenia
jakiegoś wpisu w naszym dzienniku.
Nawet będzie można gdzieś tam ustalić
powiedzmy godzinę powiadomień,
przypomnijmy, na przykład powiedzmy wieczorem, tak?
A słuchaj, napisz wpis do
swojego dziennika, bo się wydarzyło to, czy to,
czy tamto i nawet gdzieś będzie
to na zasadzie takie reagować, że jeżeli
pojedziemy gdzieś, porobimy jakieś zdjęcia,
spotkamy się ze znajomymi, to taka
paczuszka tych wszystkich wydarzeń
z danego dnia się
gdzieś tam zmaterializuje
w tym journalu jako sugestia
i jeszcze dopowie, słuchaj
jak było na tym spotkaniu z przyjaciółmi, tak?
Napisz kilka słów, nie?
Tak, bo to jest taka też bardzo popularna
praktyka w
różnego rodzaju
terapiach
dbania o nasze zdrowie
psychiczne, jeszcze zdrowie mentalne
właśnie prowadzenie
pamiętnika i tak zwane praktykowanie
wdzięczności, czyli że
spisujemy sobie te rzeczy, które nam się udały,
spisujemy sobie te rzeczy, za które
jesteśmy wdzięczni, które możemy o sobie
powiedzieć, czy są pozytywne albo o danym dniu,
albo o danej sytuacji
i chyba w duchu tego też
ta funkcja się, ta aplikacja
się pojawia, żebyśmy po prostu
sobie na bieżąco
takie refleksje prowadzili nad własnym
życiem, nad jakimiś celami,
nad jakimiś naszymi osiągnięciami
albo też porażkami, bo też wiadomo
trzeba, bo one się zdarzają
i są częścią gdzieś życia.
No więc tam mają być
też sugestie z innych aplikacji, dobrze
rozumiem? Też mają być
proponowane. No tak, że deweloperzy
będą mogli się z tym integrować.
No tak, jasne.
No i ostatnia taka wielka nowość
i to chyba głównie dla tych iPhone’ów 14,
tak, które mają Always on Display,
czyli możemy sobie zrobić
fajny gadżet na
szafkę nocną z naszego iPhone’a,
który… To chyba też działa na 13,
też na starszych iPhone’ach, tylko muszą
być podłączone do ładowarki WDG.
Aha, no to
tak i ma być
nawet przy zablokowanym ekranie cały czas
coś na ekranie
pokazywane jakieś i to my możemy wybrać
co do nocny. Tam domyślnie
może być taki gigantyczny
zegar, który z daleka
każdy sobie zobaczy.
On nawet… Będzie można nam też
ustawić go w ten sposób. Można też
być jakieś tam informacje o pogodzie.
A jak nadejdzie
pora
spania, to ten zegar
jakoś tam się przełączy w tryb taki
no tak zwanego ciemnego
ekranu, gdzie tam będzie dyskretnie
pokazywał
oczywiście, ale tak, żeby
osoby kładące się spać jakoś tam
nie razić po oczach.
Ciekawe, czy to jakoś będzie
swoim showerem dostępne. Nie widzę, żeby to miało wielki
sens szczerze mówiąc, ale
Apple lubi nas zaszkoczyć. Był taki
moment, taka trochę degresja,
ale pamiętam na początku, jak jeszcze
dopiero zaczynałem swoją przygodę z
Apple Watchem, to tam było takie coś, że
niektórzy to uważali
jako błąd, ale tam chyba… Wydaje mi się,
mówili, że to był błąd. Wydaje mi się, że to był feature,
ale w końcu to usunęli, bo chyba za dużo
ludzi narzekało.
Bo Apple Watch już jakiś czas miał taki tryb,
że jak był podłączony do ładowarki, tam też się
coś tak wyświetlało.
No i było coś takiego, że jeśli…
On chyba reagował na dźwięk albo na
wibracje czy coś, że mogliśmy klasnąć,
albo stuknąć o półkę. Ja tak robiłem,
stukałem o półkę, na którą się ładował.
I wtedy voiceover się odzywał i mówił nam godzinę.
To było fantastyczne.
Mi się to bardzo podobało, ale ludzie narzekali na to,
że to był błąd i w końcu to usunęli. Ja nie wiem, czy
to był błąd czy nie do dziś, ale…
Bardzo praktyczne
to było.
Możesz coś takiego zrobić. Rzeczywiście, że z odległości
to zrobić. Albo pewnie obejści
po Siri jakoś.
A propos Siri, właśnie słowo aktywacyjne
zostało skrócone do, no właśnie,
po prostu Siri.
Gratulacje, czyli teraz już nie powinniśmy tego słowa używać
w audycjach. Dobra, dzięki. Trzeba zrobić notatki.
Ciekawe, że tak.
Tutaj już widzę też, jak ktoś na przykład
o Wiedźminie rozmawia i o Siri.
Przyróżnia i będzie
problem. I też Siri
powinno reagować na jakieś pytania dodatkowe
bez potrzeby
wywołania drugi raz. Czyli, nie wiem,
pytamy się o pogodę, podaje nam pogodę, a potem
się dopytujemy, nie wiem, o przyszły tydzień na przykład,
czy coś w tym stylu.
Pozostali asytenci już mieli
takie funkcje. Czemu nie?
No i tutaj też taka informacja
do tego nie było akurat w kino,
ale to było podane w zeszłym tygodniu,
jak był
Dzień Globalny Świadomości o Dostępności.
Głosy
Siri w współpracy
z gwarami mają teraz brzmieć lepiej.
Podobno.
Zobaczymy, jak to będzie w praktyce.
Ale było też troszkę takich drobniejszych nowości,
które zostały pokazane. Ja teraz je nie wszystkie
pamiętam, ale zdaje się, że
mapy będzie można zaraz obsługiwać offline.
Będzie można sobie pobrać mapę
jako po prostu pakiet
na urządzenie i korzystać
bez dostępu do internetu.
Fajnie. Coś w zdjęciach
też chyba
jakoś dodali. Zakładka osoby została
zwierzona. To się niby powiem, jak to wyglądało,
ale też coś, co mi się, czemu nie, mi się to
akurat podoba i to chyba też, jak ktoś ma
zwierzaki albo psy przewodniki, czy
też, no,
zwierzęto teraz też osoby generalnie. Także
w tej zakładce też będą nasze
zwierzęta wyświetlane na liście osób
i będziemy mogli sobie w ten sposób
odszukiwać
zdjęć z naszymi zwierzątami.
A to się czasami przydaje. Ja często miałem takie sytuacje,
że szukałem zdjęć swojego psa,
żeby komuś pokazać, a
chyba to właśnie nie było takie łatwe, jak się wydaje.
Jak czegoś nie dodałem do ulubionych, to
jakoś ta wyszukiwarka mi nie chciała
ich odnajdywać łatwo.
Z ciekawości oni mówili, że będziecie mogli
zobaczyć w zakładce osoby także
wasze psy i koty. To dosłownie oznacza
psy i koty, czy ogólnie zwierzęta?
Nie ma chomiki, rolkroniki się kwalifikują?
Psy i koty najłatwiej, tak? A czy
trenowali też na innych zwierzętach? No to
zobaczymy.
Miejmy nadzieję, że odbywało się to
zgodnie z zasadami etyki.
Teraz tak,
to było tyle chyba jeśli chodzi o iOS,
a tam jeszcze jakieś doszły
drobne rzeczy w innych aplikacjach i pewnie
też będziemy w ogóle odkrywać w najbliższych
tygodniach.
Tak, też dużo rzeczy nie jest powiedziane,
więc tutaj to będzie wychodzić.
No wiadomo, już mówiliśmy o tych rzeczach.
Też jeśli chodzi o dostępność, no to
tak jak w Tyflo przeglądzie rozmawialiśmy, na przykład
w VoiceOver zostaje funkcję
Point & Speak, która
używając czujników LiDAR na nowych
będzie nam pozwalała na przykład
ustawić telefon na
jakieś urządzenie, które
nie wiemy jak obsłużyć, nie wiem, coś z ekranu
dotykowym, ekspres do kawy, jakiś
klimatyzator, coś w tym stylu.
I po prostu jak my będziemy
chodzić palcem gdzieś nad przyciskami
na tym urządzeniu, to ta funkcja będzie
nam mówiła na czym
ustawiliśmy palc, tak?
Będzie można dostosować prędkość
mowy Siri samej. To też
fajne, tego nie było wcześniej.
To tak z takich rzeczy, które akurat
przypomniałem sobie, no ale pewnie będzie jeszcze.
No i ten uproszczony interfejs, który
ma się tworzyć.
Ja jestem ciekaw swoją drogą,
czy taki uproszczony interfejs
będą mogli też tworzyć twórcy aplikacji,
że to będzie jakoś zintegrowane,
czy będą do tego API,
bo to mogło być ciekawe.
Teoretycznie powinien być, bo w tym momencie
duże możliwości się
pojawiają dla
twórców aplikacji jako
takich, tym bardziej, że mówię,
z jednej strony to jest też taki
ukłon w stronę
użytkowników, którzy są trochę
mniej ogarnięci, można powiedzieć
tak delikatnie, ale też
osób właśnie starszych,
a co za tym idzie, zawsze to też jest taki
moim zdaniem fajny motyw,
że coś, co powstaje
z myślą o osobach
z jednej strony z niepełnosprawnościami
albo o jakichś szczególnych potrzebach,
no to staje się potem jakimś to
numerem, który potem
może sobie każdy w jakiś sposób
dostosować, bo
ja to sobie też wyobrażam,
nie wiem czy pamiętacie, taki był
czas, kiedy, no oczywiście też już
gdzieś tam są, ale na przykład na Androida
są takie telefony
uproszczone, z uproszczonym interfejsem
dla osób starszych, gdzie jest taki duży
przycisk zadzwoń, duże
ikonki, tylko
kilka ich i taka osoba raczej się
po prostu w tym nie pogubi. Tak jakby
można by powiedzieć, że to tak troszeczkę
w tą stronę idzie też na iPhonie.
Tak. No i to
mogłoby też na przykład nam uprościć sprawę
może jakiejś nawigacji klawiaturą, może poniekąd
wróciłyby takie interfejsy, zobaczmy
oczywiście jak to będzie działać, takich
prostych menu, gdzie nie musimy
się zapoznawać z całą strukturą aplikacji,
tylko przykładowo
taka aplikacja Pyszne
będzie miała opcję zamów,
wyświetla się lista restauracji, wyświetla
się lista dań,
wyświetla się lista metod płatności
i tak dalej, czyli będzie po prostu
w dużo bardziej
uproszczonej formie to pokazane i może
będzie przez to możliwość jakiejś
takiej trochę w starym
stylu nawigacja przed klawiaturą
z trzałkami, może jakiś taki pilot by
powstał, to już można sobie filozofować.
To przy okazji ja
jeszcze może
przeczytam komentarz
jeden, który ten sam
słuchacz, czyli Halofield Day
do nas napisał
na YouTubie. Osobiście uważam,
że prawdziwe petardy
technologiczne będą za 4-5
lat, kiedy AI
wejdzie na platformy.
Moim zdaniem to, co było prezentowane
w Apple, to nie zdążyliśmy.
Może tak, ale
z drugiej strony ja też mam trochę wrażenie i do tego
jeszcze przejdziemy a propos nowego urządzenia,
że Apple
czy z powodów
jakichś, nie wiem, braków, czy z powodu
może właśnie takiej
mądrości polegającej na tym, że my się czemuś
przyjrzymy,
poczekamy aż zrobimy sobie maksymalną
ekspertyzę, ile oni planowali.
Planowany był przecież samojezdny samochód Apple.
Ile było o tym plotek i ile było
z tego wycofywania się.
Więc oni chyba mają taką strategię,
tak mi się wydaje. Nie, że bym tu ich jakoś
chciał bronić i usprawiedliwiać
wszystko i kreować na najlepszą firmę
świata, ale może jest w tym jakaś mądrość, że
oni przyglądają się
pewnym trendom przez jakiś czas
i potem
postanawiają to wprowadzić, kiedy są już
sami pewni, że dokonali swojego własnego
researchu, kiedy mają już tą
technologię tak dopracowaną, że są z niej
zadowoleni i z jej wyników.
Jako przeciwwagę mamy Google’a,
który już ma całe cmentarzysko rzeczy,
które stworzył, potem je porzucił.
Jaką wielką technologią ma być
duplex, czyli AI
już kilka lat temu, dwa,
trzy, które miało zamawiać
nawet więcej chyba,
zamawiać za nas stolik w restauracji i tak
dalej, a chyba się z tego wycofali
ostatecznie, więc nie wiem,
czy to jest, nie zdążyliśmy, czy bardziej.
Jeszcze wrócimy,
ale jak sami będziemy pewni, że
widzimy w tym jakąś
wartość dodaną i jesteśmy w stanie tego
użyć.
No nie wiem, czy się ze mną zgodzicie,
bo wy bardziej chyba śledzicie w ogóle
Apple.
Widgetów można szukać też,
zobaczcie jak długo to zajęło, żeby widgety były,
bo
widgety to Android miał od
ich lat.
Widgety w AI właśnie pojawiły się chyba w 14,
a to nawet,
one tylko tak naprawdę mogły wyświetlać
informacje, a teraz taka nowa funkcja, która
ona była ogłoszona przy okazji
iPadów, ale też jest na iPhonach i na Macach,
zresztą też teraz będą programiści
mogli pisać interaktywne
widgety, więc będziemy mogli mieć
widzów, którzy nam coś z tej aplikacji zrobią.
Ja już tutaj, jeśli
ustawienia na to
pozwolą, na przykład taki przykład
aplikacja Just Press Record, która
miała swój widget
wcześniej, ale on działał tak, że
w ona dziesięciu aplikacja nam się otwierała,
nawet jak chcieliśmy pauzę nagrywania zrobić,
czy zatrzymać, to po prostu to powodowało, że ta aplikacja
się otwierała. Mam nadzieję, że
dzięki temu to po prostu naprawdę
będzie mogło po prostu się
jednym kliknięciem zatrzymać, tak,
na przykład nagrywanie.
Tak, i do tego już przejdziemy, bo to
nowości iPadOS, ale
nie wiem, czy zwróciliście uwagę na jedną rzecz
a propos plotek. Nie było nic
mowy o sideloadingu w Unii.
No właśnie.
No,
wiecie, to nie jest pewnie coś,
tym bardziej, że jeszcze
nie do końca wiadomo, czy to będzie,
nie będzie, bo to jeszcze też cały czas tam
pewnie różne ustalenia tego, ale
wiecie, to jest też taka kwestia, że
tak jak z jednej strony
mamy jakieś funkcje, no
dostępne na przykład tylko w Stanach, tak,
ale to mówię tak po prostu naturalnie,
no chociażby
te jakieś tam, te voice,
tak, voice, live voice
mail,
a z drugiej strony,
takie w drugą stronę,
z jednej strony ograniczenie
jakieś tam
dotychczasowej
ekosystemu, znaczy ograniczenie w tym
jego ewentualne otwarcie, chociaż też jeszcze
nie wiemy, jak to będzie,
a z drugiej strony, no,
gdyby takie coś miało gdzieś tam
wejść, to pewnie Apple też by
musiało mieć jakąś tam strategię, tak,
którym, nie chwaliłby się tym
tak globalnie po prostu, tak, a
Europejczycy to mogą
instalować z zewnątrz, nie, a wy nie.
Tak, dokładnie. No my się zastanawialiśmy
tutaj w ramach tego przeglądu, jakby takie
ogłoszenie Apple mogło wyglądać,
nie, jakby to usprawiedliwili, że to jest
nowa funkcja, która… Znaczy ja pamiętam taką,
że jest to zupełnie inna kategoria,
ale w tych takich kwestiach
typowo prawnych. Ja nie wiem,
czy tam pamiętacie, jak parę lat temu,
już troszkę czasu minęło,
ale jak była taka wojna o,
a propos o konflikt gwarancji
Apple na produkty, która jest roczna,
co do zasady,
a w Unii Europejskiej na produkty
powinna być dwuletnia
gwarancja. Ja pamiętam, że
Apple zrobiło na swoich stronach taką tabelkę,
co oferuje gwarancja
Apple, a co oferuje gwarancja unijna.
I różnica
oczywiście była w długości,
ale z tego powodu ta gwarancja
unijna była taka, no coś tam miała
pookrajane na przykład.
Ja przypuszczam, że to jest na takiej
trochę
powiedzmy, na takiej trochę
kanwie, trochę lokalnie.
Tak samo przecież iPhone’y też
sprzedawane, przecież wiadomo są w Chinach,
ale też mają pewne ograniczenia
na ten rynek chiński, tak?
W niektórych funkcjach. Ja przypuszczam, że
jakby tutaj,
a w szczególności na tego typu konferencjach
jakby nie za bardzo chyba jest po prostu sens
i miejsce
mówienia o czymś takim, tym bardziej,
że mówię, no jeszcze, to nie jest
jeszcze nic przesądzone akurat.
Tak. Więc
iPadOS, widgety.
Mówiliśmy już o interaktywnych widgetach.
Swoją drogą ciekawe, czy
one też były na iOS’ie
dostępne, a jeśli nie,
to czy na przykład dzięki temu, że
teraz jest już jakieś tam API dla programistów
do widgetów interaktywnych, czy skróty mogłyby
wykonywać operacje w tle?
Zobaczymy. W skrócie co się z
iPad’em stało do tego, że iOS
16 dostał możliwość
personalizacji ekranu blokady.
Tego na iPad’zie nie było do teraz.
Więc tak naprawdę to, co
my na iPhone’ie już zdaliśmy, właśnie tą personalizację
ekranu blokady z widgetami, z tym wszystkim,
tego na iPad’zie nie było, więc
nie dało się dodać sobie widgetów,
no to teraz można.
Po prostu.
No i to chyba nie wszystko, bo też
zdaje się, że
tu już zaczynam gubić, co było po kolei pokazywane,
ale nie jest to istotne. Aplikacja
zdrowie się też pojawiła?
Tak. I to chyba o dobrej kolejności
mówisz, jak tak patrzę tutaj na…
I tutaj rzecz, na którą ja zwróciłem
uwagę,
doszło dosyć dużo rzeczy
z plikami PDF.
No to chyba na iPhone’ie, na Mac’u też, ale
na co ja bardzo zwróciłem uwagę,
że pliki PDF
iOS będzie mógł
teraz automatycznie uzupełniać formularze,
w tym te, które zeskanowaliśmy.
Czyli wykryje
te pola, gdzie tam jest coś.
Ciekawy jestem, na ile to oprócz tego,
że się pojawią tylko takie
interaktywne miejsca
do wpisywania rzeczy.
Zastanawiam się, na ile on zrobi jakąś tam
powiedzmy interpretację na przykład dla
newsowera, tak że rzeczywiście tam pojawią się pola.
I na przykład
te pola oetykietuje
imię, nazwisko, tam i tak dalej.
To może być
jakiś taki trochę feature, że na przykład
no nie wiem, masz jakiś
formularz na papierze, ktoś Ci go daje,
a weź to wypełnij,
zrobisz zdjęcie, on wykrywa te pola
i możesz
sobie go wypełnić. To jedno.
No. I druga rzecz jeszcze
taka, która była właśnie a propos tych edycji, tych
PDF-ów, to była taka pokazana znowu
taki fajny user case,
gdzie dwóch użytkowników siedziało sobie
z iPadami obok siebie i te
zmiany były w czasie rzeczywistym. Znaczy jedna
osoba pisała na tym PDF-ie, a u tej drugiej
się to właśnie pisało, co ta osoba pisze też.
Tak, bo teraz możemy pliki PDF wstawiać
do aplikacji Notatek, do Notatek, które
oczywiście możemy udostępniać i faktycznie
jeszcze wracając do tego
uzupełniania formularzy,
tam też było powiedziane coś takiego
i to też myślę, że nam się może
bardzo przydać,
że będziemy mogli
zapisać sobie na urzędzeniu
swój podpis. I to się też będzie dało
jakoś tam automatycznie wstawić.
Mhm. Czyli to jest nowe
jak rozumiem, bo wcześniej jak spotkałem
się z tym, że formularze dało się wypełniać
w taki sposób, że się rysowało po tym PDF-ie.
I to się cały czas da, tylko teraz jak masz
auto uzupełnianie na przykład w Safari,
to tutaj tak samo, po prostu
wpiszę dane z
swojego kontaktu na przykład,
no i zobaczymy, czy też właśnie tak jak tutaj
Mikołaj mówi, czy wtedy voice-over
by też nie był w stanie coś wykryć.
Czyli ta identyfikacja pól formularzy
jest nowa, tak? Czy ona już wcześniej była też?
Tak. Nie, właśnie nie było
tutaj włącznie, bo PDF-y mogą
mieć pola otagowane,
ale no tutaj identyfikacja na podstawie
zdjęć, no to to jest chyba nowość.
No tak. Ok. No to
zobaczymy. Miejmy nadzieję, że to
znowu kolejne ciekawe narzędzie
w naszej skrzynce.
Natomiast
co jeszcze?
Chyba…
Tutaj jest jakieś poprawki w Stage Managerze,
to tam można jakąś rozmiarę
okien lepiej dostosowywać sobie.
Tutaj, no nie wiem, akurat
to też minęło, że też nie mam
iPada nowego, więc nie wiem, jak tego przetestować.
Też obsługa kamery
na zewnętrznych ekranach, więc tutaj Apple
ma swój ekran na przykład z kamerką, więc tutaj
jeśli korzystamy z iPada jak z komputera,
to
takie coś się pojawiło.
No i dużo cyklowości, które są na iPonie,
tak oczywiście, bo te systemy się rozwijają
równolagdę, więc usprawnienia w klawiaturze,
w aplikacji wiadomości
też się na iPadzie
pojawią. Jasne.
No dobrze.
Teraz tak, audio i wideo,
czyli AirPods,
czyli Apple
TV, AirPlay,
CarPlay,
nie wiem, czy HomePod trochę też.
Tam też trochę się podziało
i chyba zaczęto od
AirPlaya, dobrze pamiętam, że AirPlay
od teraz będzie dużo bardziej rozbudowany
i… Ja tutaj widzę, że sobie
zaznaczyłem AirPodsy pierwsze, ale
możemy od AirPlaya zacząć,
jak już dokończymy wątek, że tam
nasz iPhone będzie
uczył się naszych nawyków,
jak na przykład, nie wiem, tak to rozumiem,
że na przykład zbliżasz się goździna wieczorna,
sobie puszczamy jakąś
piosenkę na głośniku
przez AirPlaya po jakimś może film na YouTubie
i będzie w stanie nam
automatycznie sugerować po prostu połączenie
z danym głośnikiem. No to
mi się może przydać, zobaczymy jak to będzie działało
w praktyce, ja to akurat najczęściej z YouTubem
wykorzystuję
przed spaniem na przykład. Zobaczymy, czy to będzie
działało.
To taka tutaj właśnie jeśli chodzi o
AirPlaya. No i nowa rzecz w
AirPlayu, AirPlay
w hotelach. A tak.
I że to będzie jako
z wybranymi sieciami hoteli
można powiedzieć będą mieli jakąś tam
umowę i oni po prostu sprzęty
i tą funkcję do
tak jak na przykład, no nie wiem, są jakieś systemy
tam był przykład systemu nagłośnieniowego
gdzieś tam w hotelu. No i po prostu
taka ciekawostka
jak się z tym połączymy. No w hotelu
będzie po prostu gdzieś tam naklejka
z QR kodem.
Skanujemy go w pokoju
i automatycznie nam się łączy z
tym sprzętem, który jest w pokoju
w hotelu.
Jak rozumiem
hotele wcześniej nie oferowały
no nie wiem, jakichś smart urządzeń, które
miały AirPlaya albo
Apple TV. Ja rzadko
bywam w takich hotelach jakichś sieciowych
powiedzmy, więc
ciężko mi powiedzieć jakie tam są standardy w tym momencie.
Ale wiecie, znowu
trochę pokazuje, bo tak jak na przykład
zobaczcie, mamy CarPlay
gdzie Apple się dogaduje
z producentami samochodów
żeby
wdrażały ich te.
No a tutaj będzie kwestia
to oczywiście już jak tam, bo to nawet będą
po prostu jakoś tam certyfikowane
przez Apple hotele
i sieci, no gdzie
po prostu klient po prostu
będzie wiedział, że w tym hotelu będzie mógł skorzystać
z AirPlaya.
I to jest jakby znowu taki kolejny
obszar
jakiegoś, jakby to
powiedzieć, no rynku
można by powiedzieć, usług, gdzie
Apple się jakby tak
delikatnie mówiąc wpycha
ze swoim produktem.
Szczególnie, że zdaje się, że
z branżą hotelarską
to oni już mogą mieć jakieś
pierwsze kontakty i współpracę
bo przecież, czy przypadkiem
właśnie w tym pęku
kluczy i w tym mechanizmie
takim, dzięki któremu
można sobie na przykład
trzymać kluczyki do naszego auta
to czy nie można
też jakichś kluczy hotelowych, a czy przynajmniej
nie było to zapowiadane trzymać
do naszego pokoju chociażby?
Tak, było coś, tak,
że można już w portfelu sobie klucz
do pokoju gdzieś zapisać i
potem po NFC jakoś otwierać sobie pokój,
tak, było coś. Więc ja myślę, że to może być
też takie rozszerzenie po prostu
tego, co już
zaczęli jakiś czas temu
tworzyć.
No tak, mówiliśmy
też już o CarPlayu właśnie,
o wspólnym słuchaniu muzyki
gdzieś tam i aktywnościach w
aucie.
Też
właśnie i
AirPodsy. I tutaj co?
Adaptywny dźwięk? Tak.
Właśnie to polega.
Ja tutaj sobie to napisałem tak
dynamiczne ustawienie
odciągnięcia i trybu transparencji,
czyli na podstawie tego, co się dzieje w środowisku,
że my sobie słuchamy muzyki i oto on nam
generalnie powiedzmy dźwięki samochodów
ścisza, ale gdyby podszedła do
nas jakaś osoba i zaczęła do nas mówić,
albo jak my byśmy się zaczęli odzywać,
to ten tryb jest w stanie nam automatycznie
muzykę ściszyć, żebyśmy też
mogli słyszeć rozmowę, on wcale się
skupia, ten dźwięk jakoś
na tej osobie, czyli przed nami
ktoś jest, a i tak te dźwięki
twarczy są ściszane.
Więc to całkiem fajna funkcja wydaje
mi się. Zobaczymy jak to
będzie działało w praktyce.
Wiem, że wcześniej już były jakieś testy,
żeby właśnie nasze
urządzenie reagowało, na przykład nasze
imię wypowiada, no to chyba nie tylko na nasze
imię będzie reagowało to, ale
taki jest zamysł
tego.
No i też Apple TV,
doczekało się Facetime’a i
tego
API do, czy SDK do
aplikacji właśnie konferencyjnych
Skype.
Właśnie to pytanie,
na ile to będzie wykorzystywane, bo przecież rok temu
było, i to mnie też ciekawi,
zapowiadane było,
że
na Watcha też ta SDK ma
być i nawet na konferencji były
przykłady, że będą aplikacje Zoom i Webex.
Mamy Zooma na Watcha,
ale chyba nie mamy dalej.
Szczerze mówiąc, szkoda, że
TimToka nie mamy na Watcha w sumie, to też
nikt jakoś tego nie testował.
No właśnie, bo tutaj pojawiło się
API do
Continuity Camera, czyli po prostu
to nam pozwoli, bo wiadomo, samą
Apple TV nie ma swojej kamerki,
więc tutaj będzie nasz iPhone
używany, no i właśnie dzięki temu tutaj już jest
oficjalnie potwierdzone, że na przykład właśnie
Zoom i Webex mają się na
Apple TV pojawić, no i oczywiście
Facetime’a, jak wspominałeś.
No i zrobili takie, no tam w takim
filmiku było takie demo pokazane,
że no wiadomo, że
podłączamy sobie Apple TV do
telewizora, no wiadomo, że raczej
telewizor, no może niektóre, ale zasadniczo
no nie mają kamery,
ale to ma działać na takiej
zasadzie, że my tego iPhone’a
albo trzymamy w ręce, albo
no możemy położyć koło
Apple TV, tak jakby ta
kamera na nas patrzyła, tak?
I on automatycznie,
automatycznie będzie przechwytywał oczywiście
obraz naszej osoby i tam dźwięk
z iPhone’a, a
dużą rozmowę
na ekranie, nie?
Tak, tak.
No i to chyba tyle, jeśli chodzi o audiowideo.
Niczego nie pominąłem?
Chyba nie.
Nie, tam na TV jakieś były też
przeprojektowane centrum sterowania.
Nie wiem, jak już tam
chyba inaczej wygląda, ale to
nie wiem więcej.
No i Mac OS.
Jeszcze Watch
po drodze. A, Watch. Tak, Watch.
Na Watchu
dla rowerzystów, więc tutaj
dla ludzi, którzy na tandemach jeżdżą
w naszym przypadku.
Jakieś nowe funkcje, tak?
Połączenie z czujnikami zewnętrznymi na Bluetooth
do… Tak, jeżeli rower ma
bo są już takie rowery, które mają
jakieś czujniki w sobie.
Jakieś tam mierzenie, jakiejś tam prędkości,
jakieś tam, no nie wiem, może na jakichś górskich
rowerach tam, czy coś.
No to jest możliwość, że ten, ta
po prostu te rowery
będą się łączyły po prostu przez Bluetootha
z Watchem
i zbierały te informacje. Oni tam dali
taki przykład, gdzie
na bazie tego, jak ktoś tam kręci
tymi korbami w
rowerze, jakaś jest
taki współczynnik, już teraz nie pamiętam, jakiś tam
trzyliterowy taki był, który oznacza
na jakby, jak
w ciągu
jazdy na rowerze. To jest jakaś
taka uniwersalna wartość,
porównywalna, jak długo ktoś jest
w stanie jakąś tam tempo utrzymać
i on po prostu może
automatycznie wykryć
na jakim jest osoba etapie tej jazdy
na rowerze, na zasadzie zmęczenia.
I może
osoba sobie jakby sprawdzić, nawet
tam była taka pokazana funkcja, że jakbyś
iPhone’a zamontował na kierownicy
to też może być w dużej,
może być, że z iPhone’a się też robi
taka deska rozdzielcza troszeczkę
i na niej po prostu pokazywane są
informacje, na jakim jesteś etapie,
czy jesteś bardzo zmęczony, czy nie, czy możesz
sobie pozwolić na jakąś jazdę.
No i to ponoć tworzą
z tymi,
ze społecznością cyklistów po prostu.
Jeszcze na zegarku to
z takich
dużych nowości to się pojawiły też
widżety, które
możemy uzyskać poprzez
obrócenie koronki, więc jeśli mamy
nasz widok na oczy, możemy sobie obrócić koronkę i też tam możemy
sobie taki jeden
od widżetów sobie konfigurować. One też
mogą być interaktywne,
więc tutaj też będą mogły, tutaj był przykład,
przykład, jeśli
mamy jakiś minutnik ustawiony, to jak
przesuniemy sobie koronkę, to z tego poziomu
będziemy mogli go
sobie zatrzymać.
Dużo aplikacji zostało
przeprojektowanych,
czy no ta aplikacja
Activity, teraz nie pamiętam jak ona się po polsku nazywa,
tam gdzie generalnie nasze cele
fitnessowe sprawdzamy, to tam
pojawiły się skróty do różnych sekcji aplikacji,
tam też się pojawił taki
system, w którym
poprzez obracanie koronki przełączamy
różne widoki pełnoekronowe w tej aplikacji,
tam też się nowe API pojawiły dla
programistów, jeśli też by chcieli takie
pełnoekronowe widoki
w swoich
aplikacjach zastosować. Też są nowe tarcze,
paleta, to tam
coś związane z
z
takim bardzo specyficznym
to coś związane
z malowaniem, takie bardzo
malowanie obrazów
z kolorami, nie wiem czy Mikołaju zwróciłeś na to
uwagę. Tak, no było też takiego, że tak jak
są klasyczne
tarcze na przykład ze wskazówkami zegara,
no to to takie powiedzmy
powierzchnie między wskazówkami, że one zmieniają
jakoś tam kolory i
te powierzchnie jakby
ta godzina jest prezentowana za pomocą
jakichś takich obrazów,
jakoś tak wirtualnie. Tam jeszcze
a propos tych fitnessów, gdzieś
na razie to jest w formie jakichś tam
aha, jeszcze było
o, to jest też ważne, warto powiedzieć, obok
tego cyklingu jeszcze
były te piesze wędrówki.
Dostały nowe rzeczy.
Mianowicie w aplikacji
Kompas pojawiły się
te nowe, tak jak standardowo
jest wskazywanie północy, to tutaj
jeszcze będą dwa dodatkowe jakieś punkty.
Kierunek, w którym
ostatnia
ostatni raz telefon miał zasięg
na przykład komórkowy i on
może w stanie po prostu nam pokazać
w jakim kierunku iść, żeby ten
zasięg powiedzmy gdzieś w jakichś takich trudnych
terenach znowu
zdobyć, a z drugiej strony
widok
tak zwanej mapy 3D
czyli poziomów jako takich
też widziany w Kompasie, że osoba
jak przechodzi przez koszczególne waypointy
no to może po prostu
sobie zobaczyć jak to było
jak się zmieniała na przykład wysokość, bo tu głównie
mówimy o takich
pieszych wędrówkach w takich raczej terenach
mniej dostępnych
i gdzieś tam też będą
na razie w Stanach, bo to też
to jest w ogóle aktualizacja
map, że będą też wgrane
mapy tak zwane
topograficzne, będą zaznaczone
poziomicami poszczególne poziomy
i również będzie można
tak jak idzie się na przykład
na górski szlak o jakimś tam kolorze
no to będzie można się dowiedzieć
czy na tym szlaku są, jakie są warunki
na jakie ewentualne
niebezpieczeństwa czy trudności
może napotkać osoba
chodząca sobie pieszo
jasne
no i chyba
dotarliśmy do Maca
i tutaj
jeszcze było zdrowie psychiczne
w aplikacji zdrowie
także tutaj będziemy
mogli zapisywać na przykład
nasz nastrój, jak się czujemy
jakie czynniki na to pływają
fajnie, że
on będzie analizował, z jednej strony będzie to trochę powierzane
trochę podobnie jak w takim
dzienniku tym wcześniejszym
ale tu będziemy sobie mogli o naszym nastroju
gdzieś tam powiedzieć i potem na bazie
tych wpisów
to będzie też potem można pokazać
psychologowi czy jakiegoś tam lekarzowi, który
może zdiagnozować czy nie wiem
mamy jakąś tam depresję albo czy mamy
jakieś takie symptomy, ale jedna rzecz
która oprócz tego zdrowia psychicznego jeszcze
była fajna
coś takiego w kierunku tutaj
nazwijmy to w cudzysłowie naszych schorzeń
mianowicie również analiza
zdrowia oczu
i była dosłownie
fajna taka rzecz
powiedziana, że
kiedy będzie oczywiście ta funkcja włączona
na podstawie
tej kamerki, która jest
i tego detektora
Face ID
odległości
twarzy od ekranu
aplikacja będzie mogła
ta funkcja będzie
mogła monitorować jak blisko
trzymamy twarzy
iPhona czy tam iPada
jeżeli
aplikacja zauważy, że my go
przystawiamy
do twarzy coraz bliżej
to może nam
właśnie tam powiedzieli, że tam
będzie taka jakby funkcja monitorowania
czy jesteśmy narażeni
na krótkowzroczność
tak i jeżeli
będzie, a jeszcze, że jeżeli będziemy
za dużo czasu też spędzać
przed urządzeniem, przed ekranem urządzenia
to nam też tam zaalarmuje
słuchaj odłóż tam iPhona, bo sobie
tam za chwilkę
oczy nadwyrężasz, tak
i no też ciekawy
kierunek tak naprawdę. To prawda
tak, rzeczywiście
już się dziwię, że tak zapomniałem i tak
nad tym przeszedłem, bo to w naszym podcaście
w kontekście podcastu bardzo ważny temat
ale to już
chyba rzeczywiście wszystko jak chodzi o Watcha
i teraz nowy Mac OS
Mac OS
z Sonoma
proszę, jak? z Sonoma
z Sonoma
z regionu, bo to oni robią
oczywiście na bazie regionów
i zawsze ten Craig Federici
zawsze mówi, że nasz
pokręcony team marketingowy
przejechał, znowu przejechał
mnóstwo
mnóstwo tam
miejsc w Kalifornii
w poszukiwaniu nowej nazwy i ta Sonoma
to jest ponoć jakiś region, w których są jakieś tam
winnice, jakieś wzgórza
i słynnie właśnie z jakichś
win
no
to zobaczymy, czy tu
w przeciwieństwie do wina
z Maciem będzie tak, że im nowszy
tym lepszy, natomiast
zaczęli od tapet
chyba, od wygaszaczy nowych, tak?
które mają pokazywać różne miejsca na świecie właśnie
tak, to jest w ogóle ciekawe, że
Microsoft z Windowsa 11 usunął
wygaszacze, bo stwierdzili, że to jest nieprzydatne
w dzisiejszym świecie, bo ekrany się już tak nie wypalają
a tutaj Apple idzie
w odwrotną stronę
i dodaje nowe wygaszacze
ja bym powiedział, że ta filozofia jakiegoś tam wypalania ekranu
to jest taka trochę już
wyciągane, żeby się umówić, screensaver
no ale tak to trochę zostało, a tutaj właściwie bardziej
była kwestia taka, że
raz, że komputer możemy sobie zostawić
a tutaj będzie jakieś tam interaktywne
tak, no to chodźcie, żeby to wyglądało, co Apple zawsze stawiało
na wygląd, tak?
i to też ponoć ma jakoś też odzwierciedlać
tam, no, nasz nastrój
tam, to co oglądamy i tak dalej
mhm
no i właśnie potem dalej przeszli do
widgetów, że te widgety już nie tylko będą
w centrum powiadomień
tak jak było wcześniej, ale będą
bezpośrednio na pulpicie, więc będziemy mieli
cały czas, staje się tak, podgląd
znaczy no my, osoby widzące
ciekawe jak to, czy voiceover jakoś będzie
ja jestem bardzo ciekawy, bo to biurko
było naprawdę zawsze bardzo proste
tam naprawdę tego widzieliśmy tylko
te rzeczy, które my
właściwie sami sobie tam ustaliliśmy, tam mogą być dyski
ewentualnie
jakieś
jakieś dyski sieciowe, czy coś
to podłączymy do komputera
no ciekawe jak to będzie z voiceoverem rozwiązane
mhm
no i nie wiem, czy już was pytałem
i jeszcze, przepraszam cię, jeśli chodzi o te
widgety właśnie, że też
Mac będzie w stanie automatycznie wyświetlać
nam też widgety z Iphone’a
nawet aplikacji, których nie mają zainstalowane
o, a to jest akurat super
no i tutaj było nawiązanie do tego Apollo
z tego co pamiętam, tak
tak właśnie, bo się zastanawiałem, czy wam też
serce się wstrzymało na chwilę
w momencie kiedy
Craig Federici normalnie na partyzanie
wymienił aplikację Apollo for Reddit
gdzie Apollo for Reddit
jest głównym przegranym tak naprawdę teraz
polityki Reddita, wedle której
no, ap jest
dla zewnętrznych aplikacji, ale po takich cenach, że
praktycznie nie opłaca się z niego
korzystać i jest wielki protest
na Reddicie
większe subreddity, co ważniejsze
wyłączają się na jakiś
czas, żeby
okazać solidarność z użytkownikami
i deweloperami tych rozwiązań
i no, zastanawialiśmy się, albo to
zostało nagrane zanim Reddit jeszcze ogłosił
te drakońskie zasady
albo jest to
taki przytyczek w nos, a nawet jeśli
nie, to myślę, że autor
Apollo musi się naprawdę fajnie czuć
a Reddit bardzo głupio, że
moment, w którym praktycznie
ubili tak dobrą aplikację, że aż Apple
chce ją wymienić na swojej konferencji
no, jest właśnie
teraz, kiedy oni przedstawiają tego nowego
Mac OSa
to jest taka aplikacja, która
to jest taka aplikacja, która
jedna z takich sztandarowych aplikacji
na platformy Apple’owskie, która zawsze wykorzystywała
nowe funkcje
nawet jak na tym iPhone’ie 14 się pojawiła
ta dynamiczna wyspa, tak?
No to Apollo tam dodał jakieś zwierzaczki
które tam możemy sobie hodować
i one tam na podstawie
tego, jak dużo na tym Reddicie siedzimy, jakoś się rozwijają
więc tam właśnie te widgety
on bardzo szybko dodawał, jakieś nowe
funkcje, które pojawiały się
w tych systemach, więc to była taka fajna aplikacja
do reklamowania nowych funkcji
Tak
No i cóż tam jeszcze w tym Mac OSie, bo zdaje się, że
w Safari trochę doszło nowości
Tak, jeszcze tutaj
następnym było omawiane granie
tutaj o tyle ciekawe
że na Mac OSie, który
umówmy się, niesłyń jest gier
pojawił się tryb graczy, który
optymalizuje system
w tym tutaj kilka takich ciekawostek, bo oczywiście
tutaj optymalizacja systemu, tam ubijane
są jakieś aplikacje w tle, nasza gra
dostaje maksymalny priorytet
ale też co ciekawe, tutaj było
odkreślone, że
jeśli korzystamy akurat z słuchawek
Airpods, to jest opóźnienie zmniejszane
Ciekawe jak
to będzie zrobione
Tu to samo, jeżeli chodzi o kontrolery, tam wspomnieli
Xboxa i Playstation
które można podłączyć
do Maca i też właśnie
priorytet
zmniejszania opóźnień
Pojawiły się też nowe narzędzia
które będą deweloperom pomagały
przeportować swoje gry do tego
API graficznego Metal, to jest o tyle istotne
że Apple tutaj
odbiega od konkurencji, bo wszyscy
powiedzmy korzystają z jednego API
albo z bardzo podobnego, jak to
Apple zawsze często ma swoje
które też jest wydajne, ale trzeba specjalnie
pod nie pisać i też
częściowo przez to nie ma tyle gier na Maca na przykład
No właśnie
tutaj myślę, że
możemy teraz
przejść do Safari
bo tutaj pojawiło się kilka fajnych
funkcji
na przykład
są usprawiedliwienia w trybie
prywatnego przeglądania, które nam
będzie z odnośników usuwało
jakieś śledziki, nie wiem czy się tak
mówi, to są takie skrypty, które nas
śledzą, jeśli zminimalizujemy
te okna, to one będą jakoś blokowane
żeby nikt nie miał do nich
wglądu
będzie można udostępniać hasła
grupom znajomych, to wszystko oczywiście
zszyfrowane po pęku iCloud
można sobie
tworzyć osobne profile, a to jest fajne
to jest coś co Firefox
i inne przeglądarki już jakiś czas miały, więc możemy
mieć osobny profil do pracy, a osobny do
po prostu takiego
przeglądania codziennego, w którym mamy
konkretne, osobną historię
osobne zakładki, osobne rozszerzenia włączone
osobne ciasteczka
więc tutaj jakieś dane logowania zapisane
lub nie, więc całkiem przydatna funkcja
ale też
możemy dowolną stronę
zapisać sobie
jako aplikację
nie tylko te PWA, takie specjalne
strony, które są po to zoptymalizowane, ale
na dowolnej stronie możemy sobie po prostu
wejść do menu plik, kliknąć opcję
zapisz jako aplikację, więc jakby ktoś chciał
sobie na przykład, nie wiem, Tyflo Podcast
gdzieś zapisać jako appka
na blogu, no to będzie się dało
takie aplikacje mogą mieć
mogą otrzymywać
powiadomienia, nam wysyłać, więc takie
wszystkie funkcje, na które pozwala normalnie
Safari, stroną internetową też
będą dostępne w aplikacjach
ciekawe czy rozszerzenia w tym trybie też działają
bo to na przykład
byłby ciekawy patent na YouTube’a
nie wiem, z sponsorblockiem zainstalowanym na przykład
czy adblockiem jakimś
no tak, no i aplikacje
webowe, tak, które
zostały rozbudowane
dość mocno
zdaje się, że i w docu
będą się pojawiały
no to właśnie to o czym mówiłem, że każdą, właściwie
nawet nie tyle tylko, nie tylko aplikacje, które
są po to zoptymalizowane, tylko
każdą stronę tak będzie można zrobić, ale tak
jak najbardziej jeśli aplikacja
wykorzystuje te api, bo są
takie specjalne api do tego, które na przykład
na iPhone’ach też są stosowane, no to
to też będzie brane pod uwagę
no i nie wiem
czy coś jeszcze w Macu było?
Tak, na przykład
momencik
tylko to sobie znajdę
było coś
zgubiłem teraz
związane z udostępnianiem
ekranu, że będziemy mogli też w obrazie
w którym udostępniamy ekran naszą twarz gdzieś wyświetlić
i pokazywać coś
coś takiego, że
jak robimy jakąś tam
nie wiem, telekonferencję czy coś
to jakby będzie można
zrobić taki
jakby takie wirtualne to, że my jesteśmy
a za nami na przykład jest ekran Maca
powiedzmy, czy jakby robimy jakąś taką
wirtualną prezentację to
te osoby, które nas potem
tam zobaczą, no to właśnie taką
tak nas zobaczą
można by powiedzieć, nie?
No i to chyba tyle, bo nie wiem
czy jesteśmy gotowi na tą
największą nowość, która była zapowiedziana
No na koniec jeszcze tylko dodam, że też dużo tych funkcji
które były też w wiadomościach
autokaretach z klawiatury
bo to też na Macu jest, no to też
na Macu się pojawi
No i to na co chyba
długo już czekaliśmy, a my niewidomi
gdzieś tam zwłaszcza
to o czym się już od dawna mówiło
plotek było mnóstwo, domysłów było
wiele i od lat już były jakieś
prowadzone testy i wycieki i przecieki
i mamy
Apple Vision Pro
okulary do rozszerzonej
do rozszerzonej, tak? Rozszerzonej
rzeczywistości. Można się
zastanawiać, czy to w ogóle są okulary do rozszerzonej
rzeczywistości, bo to jest w ogóle całe
urządzenie
można powiedzieć, oni nawet
to jest
najbardziej zaawansowany
komputer przestrzenny
na świecie, o tak to nawet nazwali
No właśnie, Spatial Computing
o właśnie, nowe słowo
i oni zawsze lubią
taką, że on to jest tak troszeczkę historycznie
nie wiem, czy pamiętacie
moja taka ulubiona w ogóle
prezentacja, kiedy Steve Jobs pokazywał
iPhona jako takiego, tak?
Że oni tam zrewolucjonizują telefon
i
tam wtedy były takie kluczowe
jakby
sposoby interakcji, gdzie
na komputerach
na początku było
kółeczko gdzieś tam na myszy, potem
było click wheel na
iPodach
tak zwane click wheel
potem
było
multitouch na iPhonie
no i teraz właśnie ta interakcja
z tym czymś jakby to powiedzieć
bo tutaj interakcja jest w ogóle
no trójstronna
bo i analiza
ruchu naszych oczu
jak tu coś założymy
czyli tam gdzie popatrzymy, tam gdzie wzrok
zwrócimy, tam
będzie się działa jakaś interakcja
będzie to czuł ten czujnik
z drugiej strony ruchy gdzieś tam naszej głowy
naszego ciała, naszych rąk
jako wskaźników
no i
głos nasz
ja oczywiście jestem
świadomy tego, że
przypuszczam trochę
trudno jest osobie
niewidomej zrozumieć na czym
miałaby polegać ta wirtualna
czy taka
augmented reality
w tym wydaniu, właśnie taka mix tego
no ale
to jest coś takiego jak byśmy
mieli wizualnie oczywiście
przenieść po prostu
cały nasz
pulpit czy coś
poza ekran komputera
przy którym siedzimy, po prostu te wszystkie rzeczy
są dzięki
temu widziane
pomocą tych nazwijmy to
gogli czy okularów
w wirtualnej rzeczywistości można je dowolnie
po prostu skanować, skalować
czyli ktoś no nie wiem
nie ma w domu 30 metrowego wyświetlacza
bo takich się nie zmieści, no ale to nie problem
siadasz na kanapie i
odpalasz sobie film i go widzisz
tak jakbyś tam dosłownie stał przed tym
ekranem, no tak
plus oczywiście dźwięk przestrzenny
i oni nawet te
te głośnikosłuchawki
które są w tym czymś budowane, bo tak może
opiszmy, ja może opiszę jak
przynajmniej z tego co mi się udało tak wizualnie
zobaczyć jak mniej więcej
wyglądają te
nazwijmy to robocze okulary
tak
z jednej strony jeżeli ktoś
kiedykolwiek miał
taką no
tak zwane gogle
narciarskie, a przypuszczam
że może ktoś z
osób niewidomych kto kiedyś grał
na przykład albo w goalball albo w showdowna
tak, to takie
no nazwijmy
albo dedykowane albo po prostu zwykłe
narciarskie zaciemnione
okularki, mniej więcej to jest coś takiego co zakładamy
na takiej gumie na głowę tak
przy czym w tej całej
ramce tego
tego czegoś że tak powiem
jest zintegrowane
wszystko tak, od samego komputera
wszystkie czujniki, kamery
na zewnątrz jest jakaś taka
nie wiem czy to jest jakieś tam wypolerowane szkło
bo tak na marginesie
te okulary nie są
nie są przejrzyste, to nie jest tak jak zwykłe
okulary, że my widzimy
w tych okularach świat tak jak
przez szyby zwykłe
tylko po prostu
widzimy ten świat
przez kamery, które filmują
to wszystko co jest przed nami
i oczywiście na tą rzeczywistość
prawdziwą nakładają te różne
elementy
od tych, że tak powiem od tej całej ramki
w której ona przylega szczelnie
do naszej
oczodołów czy do naszej twarzy
przodu twarzy, nad nosem i tak dalej
odchodzi taka jakby
nazwijmy to gumowy
pasek z jakiegoś tam też miękkiego
oni też bardzo mocno walczyli o to żeby to były
bardzo lekkie materiały
nawet część akumulatora
to jest gdzieś tam też w to wbudowana
ale oprócz tego mówili o tym że
żeby przedłużyć działanie tego czegoś
na baterii to osobno
dodatkowy taki powerbank na kabelku
gdzieś wsuwany do naszej
kieszeni czy to
gdzieś tutaj na piersi czy tam
gdzieś przy pasku można po prostu
dołączyć w celu dłuższego pracy
na tych akumulatorach
no i
system głośnikowy oni to nawet
nazwali
oni to nawet
jakoś tak nazwali
pod
audio pod
tam gdzie dwa razy pojawiły
takie coś właśnie
bo to nie są idealnie
to nie są że tak powiem
głośniki które nam
odcinają uszy i są wkładane jakoś do uszu
tylko na tym pasku nie wiem czy to jest
troszeczkę na bazie jakiegoś przewodnictwa kostnego
czy czegoś w każdym razie
zapewnia to nam z jednej strony
doznania
dźwięków płynących z samej tej
realnej rzeczywistości ale
z drugiej strony też nas nie odcina od
dźwięków rzeczywistego
otoczenia
czyli urządzenie jak rozumiem
bo różne były też już przecieki po
drodze jest jak najbardziej przenośne
tak tak tak
i ten powerbank
to jest wearable można powiedzieć że to jest takie najbardziej
zaawansowane wearable
działa samodzielnie
działa samodzielnie i ten powerbank
może ale nie musi być przypięty
tak tak to jest tylko kwestia żeby zwiększyć
po prostu czas pracy
tak jak najbardziej
no czyli możemy mówić powoli
o tym że Envision Glasses
raczej odejdą do lamusa
czy to nie jest tego typu urządzenie
może chyba tak się stać prawda?
to jest chyba troszkę większe od Envision Glasses
ale tak no tutaj
warto zwrócić uwagę na to co
to urządzenie potrafi bo tutaj mamy
bodajże 12 kamer
i innych czynników
tam nie było powiedziane że to jest konkretnie lidar
ale tam są jakieś inne czujniki
których on między innymi też wykorzystuje
6 mikrofonów też
on to wszystko wykorzystuje do tego żeby na przykład
żeby nam ten dźwięk
dostosować do otoczenia że on jakoś bada
jakie materiały są wokół nas i do tego
ten dźwięk dostosuje
potrafi nagrywać obraz i dźwięk
w 3D więc tutaj mamy przestrzeń na nagrywanie
obrazu i dźwięków
tutaj też to było pokazane można tak jakieś
momenty życiowe zapisywać
w ten sposób ale też było powiedziane
o potężnych
funkcjach mapowania
przestrzeni 3D
więc tu
widzę duży potencjał dla funkcji
dostępności i to nawet nie mówię tylko o tym
co mieliśmy w Envision
Glasses tak chociaż to też
ale też no jak już
na
iPhonie mieliśmy wykrywanie drzwi
i osób i
teraz innych rzeczy wcale się nie dziwię
jeśli na tych okularach nie będzie czegoś jeszcze
więcej
możliwości są po prostu
praktycznie nieograniczone
duży potencjał to urządzenie ma
tym bardziej że tutaj jakby
to wszystko co my możemy
i mało tego aplikacje które już są
w tej chwili na iPhone i iPada
one z automatu będą dostępne
na okulary
także nie trzeba
wszystkie aplikacje z iOS będą
ale będzie też osobna
część takiego sklepu specjalnego
z aplikacjami stricte dedykowanymi
temu bo tak na marginesie to też warto powiedzieć
no mamy kolejny system operacyjny
Vision OS
tak więc
a jeszcze
ciekawostka no i kolejny
kolejny nowy procesor
R1 on się chyba nazywa
który
tak jako ciekawostka też to te
te okulary one będą miały
wbudowane dwa czipy M2
ale za te wszystkie
tak powiem
zbierane informacje i przetwarzanie tych informacji
tych wszystkich sensonów kamer
akcelerometrów
tam i wszystkich innych no będzie odpowiedzialny
jakiś tam mega czip R1
który te dane
analizuje tam ponoć nie wiem
kilkaset razy na sekundę
i to są też po prostu
no state of the art
jak to mówią tak czyli po prostu no najnowsze
osiągnięcia
na świecie
jako ciekawostkę na tej obudowie
będzie mnóstwo oczywiście czujników przycisków
ale też będzie coś takiego jak
bo oni powiedzieli że te wszystkie
doświadczenia które mieli dotychczas
we wszystkich swoich urządzeniach
no bo wiadomo procesory
w iPhone’ach
jakieś tam wiadomo ekrany ale również w
watchu mamy koronkę
tutaj też mamy koronkę
przy tych okularach która też
będzie różne tam funkcje
i tam był taki
pokazany no były też znowu pokazane
takie use case czyli po prostu przykłady
użycia nie że tylko sobie o
stworzymy coś
o super możliwościach róbcie sobie coś
w tym chcecie bo jest ale pokazali
taki przykład gdzie
była osoba która
pracuje po prostu zdalnie
i była gdzieś w podróży
usiadła sobie na kanapie w hotelu
założyła okulary
i się przeniosła po prostu wirtualnie do swojego
biura gdzie ma po prostu
zawieszone
w tym powietrzu tego pokoju
widzi te aplikacje może wchodzić
z nimi w interakcję wystarczy głowę oprócić
wystarczy palcem
wskazać
może coś tam podyktować odebrać telefon
mało tego były też tam pokazane
rozmowa
facetime gdzie
część po prostu
w części pola widzenia były te osoby
z którymi rozmawiała a w części pola widzenia
jakiś tam dokument
na którym współpracowali na przykład
przy czym ciekawostka
przez to że tutaj jest
taka rzecz że jeżeli my sobie
w tych okularach będziemy sobie chodzić
to my na zewnątrz oczywiście wyglądamy
jak no można by tak trochę powiedzieć
na dzisiaj trochę pewnie dziwnie
tak jakbyśmy w goglech marciarskich
chodzili sobie po mieście
natomiast przez to że nasze oczy
tam nie ma to nie jest typowa szyba
przejrzysta tylko po prostu my z jednej strony
widzimy
świat przez te wszystkie kamery
które tam są a z kolei
z drugiej strony osoby które by chciały
zobaczyć jednak nasze oczy
naszą reakcję to na tej zewnętrznej
części jest po prostu wyświetlacz który
że tak powiem analizuje
nasz wyraz
naszych oczu że tak powiem
i wyświetla te oczy po prostu
w formie jakby takiego awatara
na tej przedniej części
po to żeby osoby
mogły wiedzieć czy my na nie patrzymy
czy jesteśmy jakoś tam uśmiechnięci
i też z tego powodu
że no okulary nie mają takiej
możliwości jakby zanalizowania
całego naszego wizerunku
naszej twarzy to na
bazie jakich tam mówię skanowania
użytkownika ale też naszych
potem oczu
my pojawiamy się w tych rozmowach
facetime’owych jako awatar
podobny do nas
zbliżony do naszej osoby
ale to nie jest obraz
naszej osoby z kamery bo takiej kamery
po prostu na zewnątrz nie ma
tak to pokazali
w formie jakby
personality tak to nazwali
odpowiednik takiego awatara wirtualnego
także mówię
możliwości różne dali też tam
iluś kilkudziesięciu
developerom dali już wcześniej
preview i powiedzieli
co oni o tym sądzicie i spróbujcie
jakieś aplikacje zrobić i były pokazane
takich aplikacji gdzie
jakaś firma zrobiła
dla próbne
takie właśnie wykorzystanie tego
na przykład dla studentów medycyny
jakieś wirtualne serce
które mogą sobie po prostu obchodzić dookoła
jakąś interakcję z nimi robić
mało tego
ta interakcja też z fizycznymi obiektami
jest ciekawa bo na przykład
jeżeli byśmy chcieli przychodzimy
w tych okularach do pokoju w którym
stoi nasz Mac otwarty i wystarczy
że na niego spojrzymy
to to co jest w tym momencie wyświetlane
na ekranie Maca staje się
automatycznie wirtualne
w rozdzielczości 4K jeszcze
tak jest w rozdzielczości 4K
praktycznie nieograniczonej
i po prostu
jesteśmy w stanie pracę kontynuować z Maca
tylko patrząc na niego wystarczy na niego
się spojrzeć a wszystkie aplikacje które w tym momencie
na Macu są otwarte pojawiają nam się
w tej wirtualnej rzeczywistości
wiecie zderzając ten nowy
headset od Apple i chociażby
Envision Glasses to ja sobie
tak pomyślałem od razu
że w momencie kiedy
Apple ogłosiło że
to na tym urządzeniu
będą działać wszystkie aplikacje
no to
w zasadzie
to jest pierwsze urządzenie
jeżeli rzeczywiście tak będzie
to jest pierwsze urządzenie które my będziemy
mogli założyć
zwróćcie uwagę tak swoją drogą
Apple nas do tego tak
przyzwyczaiło że my nawet tu nie dyskutujemy
o tym czy ono będzie dostępne
czy tam będzie voice over bo wszyscy mam wrażenie
założyliśmy że będzie
i mam nadzieję że się nie rozczarujemy
ja się zastanawiam bardzo
jak to będzie zrobione bo tak jest powiedziane
że będzie wsparcie dla akcesorii w bluetooth
więc pewnie obsługa brailla, klawiatury to będzie
ale czy my będziemy wykonywać
gesty na powiedzmy na stole
wpisanie brailla na biurku
czemu nie
robiłbym
albo gdziekolwiek tak naprawdę
na kolanach
w powietrzu
czy to będą takie gesty
jak na zegarku że się tam
pięścią ściskamy czy coś w tym stylu
żeby wchodzić po tym interfejsie
jestem bardzo ciekawy jak to będzie zrobione
no to teraz wiecie do czego zmierzam
to w końcu jest to czego my tak naprawdę
przy okazji tej audycji
o Envision Glasses swego czasu
szukaliśmy i się zastanawialiśmy
potem w komentarzach też się pojawiła
taka dyskusja że to będzie
pierwsze urządzenie które my będziemy mogli
założyć na siebie i skorzystać
z dowolnego komunikatora czy to
whatsappa czy to facetime’a
czy to
be my eyes
czy to skype’a czy jakiegokolwiek
i po prostu z pozycji naszej głowy
która to pozycja będzie
wydaje mi się zdecydowanie
bardziej optymalna
do tego żeby cokolwiek
pokazać co jest przed nami
po prostu zadzwonić do kogoś
i poprosić o jakąś pomoc
o wskazówki to jest rzecz pierwsza
rzecz druga to
wkracza sztuczna inteligencja
do tego wszystkiego, opisy różnego rodzaju
wirtualny asystent
w be my eyes chociażby
ja jestem sobie w stanie wyobrazić że
fotografujemy
albo nawet robimy jakiś filmik
tego co jest przed nami i dostajemy
automatyczny opis
jakiegoś planu sytuacyjnego
a to urządzenie ma naprawdę potężne podzespoły
no właśnie
więc to po prostu
ja to pod tym kątem
rozpatruje i oczywiście
cena nie jest mała
3,5 tysiąca dolarów
przy okazji
ale to będzie
urządzenie po które
wydaje mi się że za jakiś czas będzie można
wnioskować w aktywnym
jeśli aplikacje się pojawią
które będą ten potencjał cały
wykorzystywać a myślę że mogą się pojawić
to na pewno
też bardzo mi się podoba
to jak Apple to promowało
tak ogólnie nawet bo patrząc na to jak na przykład to robiły
nie wiem meta z swoimi
okularami czy wcześniej Oculus to tam
generalnie były najpierw po prostu tylko gry
stricte a potem było metawersum
gdzie tam mogliśmy sobie chodzić z jakimś wirtualnym
awatarem nie wiem robić zakupy jakieś takie
rzeczy różne to tak średnio
chyba się przyjęło to metawersum
a tutaj Apple mówi
to jest takie urządzenie do pracy
możesz na nim sobie pracować po prostu coś pisać
możesz na nim oglądać filmy jak takie
wirtualne kilo domowe
dosłownie które można w samolocie
sobie zabrać pograć też możesz
ale to tak przy okazji tam jest
tyle przykładów
naprawdę życia coś innego praktycznych
podane ja tak
zauważyłem
jeszcze coś takiego tam wspomnienie takiej rzeczy
bo
te
ekraniki oni wspomnieli że te
ekraniki mają wielkość niedużego
znaczka pocztowego
przecież tam jest jakiś taki
zestaw soczewek które
po prostu odpowiednio to ten obraz
na nasze oczy potem rzucają ale była
taka tam też uwaga
że jeżeli ktoś nosi
okulary tak bo wiadomo
że okulary jako takie
one też wiadomo jakoś tam no poprawiają
ludziom widzenie tak ale
jeśli ktoś będzie w tych okularach
i założy że tak powiem
to coś jeszcze na
to nie będzie wcale musiał tych okularów ściągać
bo oni jakoś tam co prawda
to znowu była taka kwestia że
partnerowali
się z chyba Carl Zeiss
tym wytwórcą
soczewek i optyki
i gdzieś tam jakieś
no nazwijmy to kompatybilne
soczewki będą jakby
że tak powiem mogły w cudzysłowie
współgrać z tym że będą osoby mogły
dobrze widzieć
to mimo że noszą okulary
no tak
to jest bardzo ważna wiadomość bo też się zastanawiałem nad tym właśnie
jak to wejdzie
dla osoby która ma
okulary no też
ten system autentykacji który
na telefonie mamy Face ID
a tu będzie Optic ID
i tu będzie rozpoznawanie naszej tęczówki
pytanie jak tutaj potencjalnie by to dla nas było
rozwiązane
no trzeba by zobaczyć
też troszkę
poczekamy na to urządzenie bo ono dopiero
do sprzedaży wejdzie
w tym roku w Stanach
pewnie do końca roku
a nie w przyszłym?
znaczy że w Stanach coś tam do końca roku
będą jakieś tam już deweloperskie
udostępnione ale na początku
przyszłego roku w Stanach i potem w kolejnych
latach w kolejnych krajach tak było powiedziane
tak no więc
możemy też przede wszystkim poczekać na to
że to dopiero do Polski wejdzie
no więc czas
to nie jest coś co już teraz
będziemy słyszeli nawet recenzję jak działa
przyjdzie nam troszkę poczekać ale też
Apple wyraża taką chęć do kontaktu
i do dyskusji z ich zespołem
który się tym zajmuje przez aplikację
Apple Store
oni chcą po prostu no
jesteśmy jakby na początku znowu
jakiejś kolejnej nazwijmy to trochę rewolucji
tak bo to też
było znowu tak na marginesie
reprezentowane w tym słynnym stylu
nawiązania do Steve’a Jobsa One More Thing
tak czyli a jeszcze jedno
więc tutaj też te słowa
Tima Kuka padły i znowu było
tak jak powiedziałem o tym porównaniu że no na początku
daliśmy ludziom mysz
potem daliśmy ludziom click wheel
potem daliśmy ludziom multitouch a teraz dajemy
no taką interakcję
jako taką i ja sądzę że no przez to
że potencjał tego jest niesamowicie
duży no to
ja sądzę że mówię no to będzie pewnie
kilka lat zanim w ogóle
no mówi
dzisiaj był po prostu pokazany że tak powiem
trochę kosmos tak
tak jak kilka no już ładnych
naście lat temu ja nie wiem
w Star Trek’u oglądałem
sobie kapitana Picarda
który na urządzeniu dzisiejszego
iPhone’a sobie coś tam dotykał tak
i ja dzisiaj mam takie samo urządzenie
jak on ma w XXIII wieku
a tutaj pokazali nam znowu
ileś lat do przodu
tak to jest znowu jakiś taki tego
ja mam wrażenie takie troszeczkę
znowu porównując
Apple’a i jego jakby no
filozofię
Google już się na swoich glasses
tam na samym początku coś jak to się mówi
trochę wypstrykał no zrobili swoje
Facebook
to samo i Apple to jest
że tak powiem oni
robią taką innowację że przyglądają się
jak niektóre rzeczy ludzie robią tak jak na przykład
Nokia kiedyś przecież też pierwsze
telefony dotykalskie to były Nokia
bo Nokia królowała no tylko
Nokia nie zrobiła tego nazwijmy to
dobrze tak Apple się przyglądał
przyglądał ileś tam lat
robili soft i sprzęt
i powiedzieli tak teraz możemy to
pokazać w formie iPhone’a
i sądzę że
podobnie może być z tym bo mówię dzisiaj
taka osoba z takimi no
nazwijmy to goglami narciarskimi
za przeproszeniem no pewnie będzie
wyglądała dziwnie
ale za parę lat
to może będziemy wszyscy w takich goglach
chodzili po prostu. Pamiętajcie
że jeszcze jakiś czas temu się mówiło
o tym że ludzie w słuchawkach
bezprzewodowych wyglądają dziwnie
teraz to już jest raczej
norma. Tak właśnie
to już dziwnie
wyglądasz w przewodowych
teraz to takie moda
retro takie teraz właśnie
do pracy. Jasne
no i to chyba tyle
jeśli chodzi o to co zostało
dziś zaprezentowane tylko tyle
i aż tyle bo
to co nas czeka w przyszłości
wygląda ciekawie
będziemy musieli na to trochę poczekać
natomiast
wiemy już oficjalnie
że coś się dzieje i może
to być coś wielkiego. Czy będzie?
Zobaczymy. Czas pokaże
czy Apple
jeszcze w dzisiejszych czasach
niełatwych czasach dla technologii
potrafi zaproponować coś co będzie
co przejdzie do historii
no zobaczymy
zobaczymy. Miejmy nadzieję
te nadzieje mamy bo
dla nas to byłaby fantastyczna pomoc
i tak naprawdę
od ilu już lat
się mówiło że te różne rozwiązania
właśnie nawigacyjno, wideoasystencko
rozpoznające
obraz
miałyby sens gdyby nie trzeba było telefonu
trzymać w ręku. Czy nie będziemy telefonu trzymać w ręku?
Zobaczymy.
Znając Apple nadzieje są i szanse są.
No a tymczasem
czekajmy bo już w przyszłym miesiącu
publiczne bety systemów
tych właśnie
iOS, iPadOS, TV,
Watch, Mac. No i też warto
w ogóle śledzić tą konferencję bo to nie jest
tylko dzisiejszy keynote. Dokładnie.
Za jakieś
kilkadziesiąt minut
się rozpocznie to
State of the Union tak zwane chyba za pół godziny
a
gdzieś w godzinach bardzo nocnych
18
do 30 tamtego czasu
czyli u nas 3.30
w nocy będą przyznawane
Apple Awards
i tam jedną z kategorii jest
nawet nie w tej chwili przemianowali to z
Accessibility na Inclusivity
czyli włączające
i tam nawet można było w przypadku tych aplikacji
zapoznać się z lista
nominowanych.
Więc
no widać, że tą dostępność
i te nagrody za dostępność też mimo wszystko
są traktowane bardzo
serio po prostu. I są naprawdę
nagradzane produkty, które
rzeczywiście
z dostępnością no jednak mają dużo
wspólnego.
No a też prawdopodobnie
jeżeli się nie mylę w ciągu tego tygodnia
odbędzie się wiele różnych warsztatów
i wiele różnych prezentacji
z różnych dziedzin właśnie dla deweloperów
No i jedną z kategorii będzie pewnie też
nie wiem czy widziałeś Mikołaju program? Jest też
dostępność w tym roku? Widzieliście?
Jest, jest, jest, jest.
To ciekawe, może będą zaprezentowane jakieś nowe API?
Ja jeszcze nie patrzyłem jakie tam w szczegółach są
no ale bo mówię
w aplikacji patrzyłem
właśnie w momencie
udostępniania tego keynote
Przepraszam, dobra.
Sesje miały być
podane do wiadomości.
Już pojawiają się
przecieki od niewidomych, którzy
instalują te bety. Ja się przyznaję, że też
chociaż generalnie jeśli macie drugie
urządzenie to róbcie to na drugim urządzeniu albo poczekajcie
na publiczne bety.
Pytanie, czy możemy o tych przeciekach mówić też
publicznie, bo… No nie wiem.
Na Macedonii już się coś pojawiło, więc…
Tak, jasne.
To myślę, że i tak to jest informacja, która
tak czy inaczej jest dostępna.
Już ktoś pokazywał, to akurat
było na Eloquent’cu, że na ustawienia
głosu na czynnościach
pokrętla pojawiła się nowa opcja
Otwórz ustawienia głosu
i tam słyszałem, że już była ta
podbita częstotliwość próbkowania, o której
trochę osób prosiło. Były
jakieś słowaki do
ustawienia intonacji tych parametrów. No akurat
Eloquent za duże ustawienie tych parametrów
pozwala. Nie wiem, czy tam na przykład by się nie dało
nie wiem, słowników wyłączyć czy coś.
Zobaczymy.
Wygląda to ciekawie.
No to będziemy pewnie takich przecieków trochę i to będzie
teraz się wysypywało jak piasek z worka.
Mam nadzieję, że tu ktoś
coś odkrył, tam ktoś coś odkrył.
Tu komuś
zbanowano filmik za naruszenie zasad
tajności Apple.
Zobaczymy. Zobaczymy
jak to wszystko się potoczy.
Publiczne bety
za miesiąc.
No i wyczekujcie,
bo jest prawdopodobnie
jak zwykle na co.
Nasze urządzenia obecne się przeobrażają.
Nowe nadchodzą. A może ktoś
kupi sobie nowego MacBooka Air.
Bo czemu nie?
Ja dziękuję już
za Wasz udział. Dzięki wielkie za
piękne opisy, też wizualne
Mikołaju. Tego nam często w naszych podcastach
brakuje. Fajnie, że dziś z nami byłeś.
Tak, fajnie, że mieliśmy osobę słabo widzącą
wśród nas dzisiaj, bo no właśnie.
Tak. No i Tobie też
Piotrze i Michale. Tobie Wam
również dzięki wielkie
za uczestnictwo tutaj w audycji.
Ja również dziękuję. Było mi bardzo miło.
I za mikrofonem Paweł
Masarczyk żegna się.
To była nasza relacja
z perspektywy właśnie osób z dysfunkcją wzroku
z tegorocznej konferencji prasowej
WWDC Keynote 2023
firmy Apple. Do usłyszenia
ponownie na antenie
Tyflo Radia.