#Pragma Conference 2025
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
24 dzień listopada 2025 roku, to jest poniedziałek, godzina 19 minęła.
My startujemy z kolejnym spotkaniem na żywo na antenie Tyflo Radia.
Dziś wybieramy się do słonecznej Italii, do Bolonii, na konferencję Pragma,
która to miała miejsce w tym roku.
I z tego co wiem od Arka, który jest po drugiej stronie, dobry wieczór Arku.
Dobry wieczór, witam.
To ona po raz ostatni miała miejsce, prawda to?
Tak, niestety tak. Bardzo smutne wydarzenie, bo w sensie, no ogólnie cała konferencja odbyła się normalnie.
Nikt tak naprawdę nic nie wiedział do ostatniej chwili.
Dopiero po ostatniej prelekcji organizatorzy ogłosili, że już Pragmy prawdopodobnie nie będzie, najprawdopodobniej.
No pozostaje mieć nadzieję, że coś jednak się odmieni, bo tam bardzo duża burza na Linkedinie się potem odezwała po tym ogłoszeniu.
No niestety, jak nie wiadomo o co chodzi, to zawsze chodzi o pieniądze i nie inaczej jest też tym razem.
Organizatorzy po prostu nie mają sponsorów. Organizacja takiego wydarzenia jest bardzo droga na tyle osób.
No i niestety chyba będą musieli zawiesić, aczkolwiek dalej mam nadzieję, że coś to dało, że to ogłoszenie zostało poczynione.
Wiele osób takich, że tak powiem sławnych i wpływowych w community iOSowym się wypowiadało na ten temat,
więc pozostaje mieć nadzieję, że może się tylko na groźbach skończy.
No dobrze, to w takim razie dla tych wszystkich, którzy nie słuchali naszej audycji w zeszłym roku, to może przypomnij tak w kilku słowach, czym w ogóle jest Pragma Conference.
Pragma Conference to konferencja poświęcona programowaniu i designowi na urządzenia z logiem nadgryzionego jabłka, czyli na iOS-a, macOS-a, watchOS-a, visionOS-a itd.
Jest to takie wydarzenie, które składa się z trzech dni. Pierwszy dzień to warsztaty, gdzie mamy do wyboru dwa takie konkretne warsztaty całodniowe, które trwają około siedmiu godzin.
W tym roku były to animacje i druga rzecz to był Embedded Swift, czyli programowanie aplikacji na urządzenia zagnieżdżone, czyli wszelkiego rodzaju mikrofalówki, lodówki, płytki w ESP itd.
A potem były dwa dni konferencji, gdzie po prostu przychodziliśmy sobie rano do sali i różni ludzie opowiadali o różnych rzeczach.
I ja też byłem w tym gronie.
Już tym razem Ci nikt tej prelekcji nie zabrał?
Na szczęście nie, już teraz wszystko było ustawione tak jak należy, dopięte na ostatni guzik.
Taka pierwsza różnica, były trochę zmiany w tym w jaki sposób to się odbywało.
To znaczy teraz normalnie była umowa, nie była to tak na słowo, tylko trzeba było parę dokumentów tam podpisać i wypełnić.
To taka pierwsza różnica względem tamtego roku.
Najpierw się wypełniało taki dokument, że chciałbym przemawiać o tym i o tym.
Troszkę, parę słów trzeba było o sobie opowiedzieć, jakie się ma doświadczenie, jakieś swoje portfolio.
Takie mini CV jakby, żeby oni wiedzieli czy warto mnie brać.
No i potem po wypełnieniu tego CFP tak zwanego dostawało się maila, że tak, przyjmujemy, proszę przyjeżdżać.
Także to też w tym roku tak to było załatwione.
Tak jak z tego co wiem jest na wielu konferencjach, na wielu wydarzeniach, że musimy wypełnić tak zwany CFP.
Czyli ten dokument taki, który informuje organizatorów o tym o czym chcemy mówić i kim my tak w ogóle jesteśmy.
To jest skrót od czego? Call for prelection? Presentation?
Call for presentation chyba. Call for performance, coś takiego.
Nie pamiętam do końca jak to się rozwija, ale o to chodzi mniej więcej.
Blisko jesteśmy, a czy trafiliśmy to nie wiem. Po audycji sprawdzę.
No i myślę, że to jest akurat dobry mechanizm, no bo wtedy organizatorzy mogą zapewnić miarę wysoki poziom tych prelekcji.
Zresztą w tamtym roku na przykład, ja naprawdę akurat na to nie narzekałem w ogóle, było fajnie.
W tym roku troszkę inaczej, ale o tym chyba trochę później.
No i potem jak już się wypełni ten dokument, otrzyma się zielone światło od organizatorów, no to jest czas przygotowań.
I tutaj też różnica, bo teraz dla ludzi, którzy mówili pierwszy raz, albo tak jak ja na przykład mieli mówić, ale nie mówili,
byli przypisani mentorzy. Mentorzy, czyli prelegenci, którzy już wiele razy na scenie byli i już są z tym zaznajomieni.
Są przypisani, że tak powiem, ja miałem też taką panią przypisaną, która tam była i służyła mi pomocną dłonią,
jak na przykład chciałem się skonsultować, czy moja prezentacja jest w porządku, czy jest nie za długa, czy jest nie za krótka itd.
Także też taka różnica, bo tam sobie po facetime rozmawialiśmy i oczywiście jak to na PLOWEj konferencji, sobie tam rozmawialiśmy
i ja też się z nią na githubie dzieliłem tym, co zrobiłem, żeby ona mogła to sprawdzić.
No i tak się ten czas toczył do samej konferencji.
Oczywiście organizatorzy też zapewniali, mogli zapewnić bilety lotnicze i miejsce w hotelu.
Akurat ja z biletów nie skorzystałem, bo ja jestem w Mediolanie na co dzień, gdzie studiuję, więc akurat tego nie potrzebowałem,
ale była taka możliwość i wydaje mi się, że to też jest bardzo fajne.
Jeżeli chodzi o tematy w ogóle wykładów, bo wspomniałeś o tym, że takie warsztaty typowe to były animacje,
no była też twoja prelekcja, o której na pewno szerzej sobie porozmawiamy,
ale co jeszcze w ogóle się pojawiało? Jakie tematy pojawiały się w ramach tegorocznej Pragmy?
No to tak, dla mnie takim… nie było to zaskoczeniem, ale mimo wszystko było to smutne.
Było to, że bardzo dużo AI oczywiście, no wiadomo w 2025 rok agentów,
więc oczywiście było dużo na temat sztucznej inteligencji, było o Core Foundation Models,
czyli o tym frameworku do sztucznej inteligencji stworzonym przez firmę Apple.
Tutaj bardzo fajny pan, pan Daniel Steinberg prowadził tę prelekcję.
On jest znany z tego, że napisał bardzo wiele książek, na przykład o asynchronicznym programowaniu w SWIFT-cie.
Też on różne rzeczy pisze, bo on ma taką książkę, pieczenie chleba dla programistów,
chyba czy pieczenie chleba dla matematyków, coś takiego, więc tak.
Było też dużo o bezpieczeństwie, była taka prelekcja o tym, jak budować bezpieczne monitory dziecięce przy użyciu różnych iOS-owych technologii.
Była prelekcja na temat skanowania twarzy przy użyciu frameworka ARKit.
Była też z takich ciekawszych, była też prelekcja od twórców aplikacji Bear,
czyli takiej aplikacji do notowania, do robienia notatek, o której kiedyś w Tyflo Podcastie chyba też sobie opowiemy.
I tam oni opowiadali, w jaki sposób jeden użytkownik, notabene protestancki Pastor,
przypadkowo odkrył błąd, który sprawiał, że aplikacja była relatywnie powolna,
na temat mikrooptymalizacji było.
Był też twórca aplikacji Ulises, co mnie też bardzo, bardzo ucieszyło.
Jak pamiętacie moją audycję, mojego Piotra Machacza, to mieliśmy audycję na temat tej aplikacji.
I też on opowiadał na temat zaawansowanego renderowania tekstu na Macu.
Więc ogólnie były takie bardzo specjalistyczne prezentacje.
Była prezentacja na temat prywatności w IOS-ie, więc też taka bardziej z pogranicza jakiejś etyki, że tak powiem zawodowej.
Ale myślę, że w tym roku były bardziej te prezentacje takie wyspecjalizowane.
W tamtym roku było na przykład kilka takich prelekcji, na które ktoś, kto na przykład zaczyna dopiero programowanie,
albo wręcz nie programuje, mógł sobie przejść i wiele z nich zrozumieć.
Takie bardziej umiejętności miękkie, tak? W zeszłym roku.
Tak, a w tym roku bardziej, dużo więcej kodu myślę względem tamtego roku.
Oczywiście były też panele z pytaniami na końcu każdej prezentacji.
Można było się dopytywać, jak ktoś czegoś nie wiedział.
Ja tam sporo dopytywałem, bo po prostu większość tematów była ciekawa.
Była też taka prezentacja a propos tych umiejętności miękkich.
Jak znaleźć sobie następnego pracodawcę?
I to tam opowiadał pan o tym, w jaki sposób właśnie sprawdzać,
czy dany pracodawca będzie spełniał nasze jakieś oczekiwania, czy nie.
No też myślę, takie dosyć ciekawe rzeczy.
Z prelegentów też był np. Antoine Van Der Lee, który opowiadał o zmianach w SWIFT-ie 6.2.
To też jest bardzo znana osobistość. On w tamtym roku miał bardzo ciekawą prelekcję,
czyli jak stać się deweloperem niezależnym.
Wiele osób oczekiwało, że tak powiem sequela, kontynuacji tej prezentacji,
no ale mieliśmy coś innego, myślę, że też równie ciekawego.
Więc była spora ranga tematów.
Zabrakło Vision OS-a w tym roku, co mnie troszkę smuci, ale nie dziwi, że tak powiem.
Ale w sumie jaki jest powód, że go zabrakło?
Bardzo mało osób go posiada. W tamtym roku tak naprawdę była dwójka,
dwóch prelegentów, którzy mają to urządzenie.
Teraz Manuel Carrasco Molina, który w tamtym roku prowadził warsztaty,
był tzw. MC, czyli Ceremony Master.
On zajmował się zapowiadaniem ludzi itd., więc on nie mógł.
A druga osoba, która w tamtym roku była z Vision OS-em, to jej w ogóle nie było na pragmie.
No i to jest mało popularne.
Woleli się prawdopodobnie organizatorzy skupić na rzeczach,
które w większej liczbie osób jakby pomogą.
W tamtym roku Vision OS był większą nowinką niż jest teraz,
więc siłą rzeczy się o nim mówiło, tak jak w tym roku się mówiło o agentach.
Wspomniałeś o tym, że ten dzień warsztatów to była przede wszystkim animacja.
To moje pytanie z Twojej perspektywy. Czy Ty w ogóle z tego cokolwiek wyniosłeś?
To jest wybór jakby, tak? Były dwie ścieżki. Była animacja i był ten Embedded Swift.
Więc ja oczywiście z tego Embedded Swift skorzystałem.
A, rozumiem.
Nawet mam pamiątkę w postaci płytki ESP32 już w pełni takiej polutowanej, którą mogę sobie programować.
Tam było jakieś programowanie diod, tam też bardzo wiele rzeczy mi ten pan tam podpowiedział,
bo ja z nim też potem rozmawiałem.
Więc z tego dało się skorzystać. Tak jak w tamtym roku były warsztaty na temat Swift Testing,
czyli tego framework’a do tworzenia testów jednostkowych.
Tak samo i w tym roku, no, mordownia.
Że tak brzydko powiem, bo długo.
No i bardzo dużo materiału. Bardzo dużo materiału.
W tym roku na przykład z tego zagnieżdżonego Swifta, to tam potem jak dostałem materiały,
to nawet jeszcze więcej niż w tamtym roku, około 80 stron do przerobienia w 7 godzin,
więc to sporo, sporo.
No to faktycznie była to całkiem pokaźna ilość.
Notatek, jak rozumiem, też zrobiłeś całkiem sporo.
Tak, tak, też bardzo dużo. W tym roku trochę byłem bardziej akurat na to przygotowany,
bo miałem już porobione skrótowce, czyli takie typowe frazy związane z programowaniem na iOS,
a sobie skrodziłem do dwóch czy trzech znaków.
Oczywiście wszystkie notatki w Org Mode powstały i w Emaksie,
więc potem zostały polinkowane, powiązane ze sobą.
No i tak, dużo, dużo notatek.
Też dużo się dowiedziałem.
Dużo było też rzeczy na slajdach.
Na szczęście slajdy potem pojawiły się.
Zresztą slajdy są od tego roku i wstecz,
bo oni też wrzucili z tamtego roku.
Wszystkie prezentacje są do pobrania,
więc jeżeli ktoś na przykład by sobie chciał poczytać,
są na YouTubie do wysłuchania i są do pobrania z GitHuba.
W jakim formacie?
W PDF-ach niestety.
Jestem chyba jedyną osobą, która udostępniła prezentacje w formie źródła latechowego.
No to rzeczywiście to akurat może być fajne dla nas,
że możemy sobie to dokładnie przeczytać.
Swoją drogą, udało Ci się z latecha zrobić takiego w pełni dostępnego PDF-a?
To już jest ten moment?
Tak, jest taka, nie wiem jak to, w latechu to się klasa nazywa.
Nie wiem jak to nazwać, bo moje używanie latecha to jest tylko,
coś sobie tu napiszemy, dobra, wchodzę w internet,
jak coś tam zrobić, dobra, sprawdzę, coś przekleję,
ale da się przy odrobinie samozaparcia, jest taka wtyczka Bimmer,
czy tam klasa, paczka, nie wiem jak to zwać,
to służy do tworzenia prezentacji, pokazów slajdów
i to jest renderowane w taki sposób, że każdy slajd to osobna strona w PDF-ie,
więc wszystko możemy sobie czytać.
Ja akurat miałem trochę inny system,
bo Bimmer pozwala nam na robienie tych notatek dla speakerów
bezpośrednio w prezentacji, ale ja się trochę tego obawiałem,
dlatego notatki miałem inaczej, tego nie przetestowałem jeszcze w sumie,
ale to też pewnie przetestuję kiedyś,
bo też się wybieram na inne konferencje już swoją drogą,
mogę powiedzieć, więc będę jeszcze miał okazję to testować.
Ale tak, na szczęście właśnie też to mnie tak przerażało,
jak zrobić ładnie wyglądającą, schludną prezentację,
bo to też jest ważne, bardzo ważne, bo musimy pamiętać o tym,
że na takich konferencjach większość osób to są osoby widzące
i osoby widzące potrzebują wizualizacji,
więc ta prezentacja musiała być schludna.
Zastanawiałem się nad wieloma opcjami,
jest taka aplikacja, która się nazywa Dexed
i to jest aplikacja, która pozwala tworzyć nam prezentację w Markdownie.
No i ta aplikacja byłaby ogólnie bardzo fajna,
bo jest na iPhona, na Maca,
ale z nią jest taki problem, że możemy stworzyć prezentację,
ale odczytać jej już nie możemy, więc to niestety odpadło.
Potem zastanawiałem się na chwilę nad PowerPointem czy Keynote’em,
ale stwierdziłem, że no nie, ja się jednak tego boję,
nie mam nad tym kontroli do końca.
Niby w Keynote’cie mam nad tym kontrolę,
ale trochę tak się chyba bałem
i stwierdziłem, że najprościej będzie
po prostu Emacs i Latek.
No okej, Emacs, Latek to do tworzenia prezentacji
to jest, podejrzewam, opcja fajna,
tylko jak potem z wyświetleniem tej prezentacji
i z tym, żebyś miał do niej taki synchroniczny dostęp
względem tego, co wyświetla się
wszystkim, którzy ją oglądają.
Okej, więc ja miałem taki setup,
że miałem prezentację otwartą po prostu
w Macowej aplikacji Podgląd na pełnym ekranie,
miałem swoje notatki speakera w aplikacji
w Emacsie otwarte i potem aplikacją Raycast
rozkładałem okno na poszczególnych wyświetlaczach,
bo sam system macOS, żeby na przykład
przenieść coś na drugi ekran, czyli na przykład na rzutnik,
wymaga przeciągnięcia fizycznie okna myszką.
Ja nie miałem takiej możliwości.
Też na scenie miałem ogromną pomoc od organizatorów
i od innych ludzi.
No natomiast ja jestem taką osobą,
że ja wolę jak najwięcej rzeczy zrobić samemu,
więc tutaj Raycastem, tam jest coś takiego jak
Window Presets, czyli można sobie okna
wcześniej porozkładać.
No i tak to miałem, że miałem w aplikacji
Podgląd wystawioną prezentację dla publiczności.
Miałem w Emacsie wystawione notatki dla siebie.
Audio Hijackiem miałem zrobiony taki prosty mikser,
który pozwalał mi zabierać publiczności voiceovera
i go publiczności oddawać, jak był potrzebny,
żebym mógł sobie czytać.
Miałem też aplikację Xcode i Visual Studio Code otwartą
w taki sposób, żeby w razie potrzeby
one mogły przykrywać okno prezentacji.
Jak ja robiłem tak zwany live coding,
czyli po prostu programowanie na scenie,
no to wówczas po prostu przykrywałem to.
Miałem też aplikację Witchkey, która to pokazuje
w takim komiksowym dymku, jakie klawisze naciskam,
żeby publiczność mogła się orientować,
w jaki sposób ja korzystam z komputera.
I wreszcie na dobry koniec miałem aplikację RCMD,
która pozwala mi, skrótam,
prawy command plus pierwsza litera danej aplikacji
przechodzić do tej aplikacji, żeby publiczności
nie psuć imersji ekranem przełączania aplikacji,
więc to taki dość myślę rozbudowany setup.
Okej, no to rzeczywiście setup taki zaawansowany,
nic się nie rozjechało, potencjalnie
jest parę miejsc, w których by coś mogło pójść nie tak.
Tak, poszło nie tak, właśnie też o tym chciałem powiedzieć,
rozjechało się, bo w pewnym momencie
Emacs zniknął publiczności z ekranu i ja byłem przerażony,
ale potem stwierdziłem, że okej, udam przed publicznością,
że tak miało być i że chcę, żeby oni wiedzieli
jeden do jednego w jaki sposób ja programuję,
no bo w takich sytuacjach najgorsze co można zrobić
to jest panikować, no przecież nie powiem publiczności,
poczekajcie, dajcie mi 5 minut, bo naprawię sobie wyświetlacz,
mamy sztywno określony czas, ja miałem 40 minut w panelu,
więc nie mogłem sobie na coś takiego pozwolić,
musiałem działać. To była jedyna rzecz, która się rozjechała.
Tam w pewnym momencie jeszcze był zbyt mały kod,
ale tutaj mi konferancier podpowiedział i po prostu powiększyłem kod szybko,
więc to nie był akurat jakiś duży problem.
Okej, to może w takim razie teraz powiedzmy i porozmawiajmy w ogóle
o twojej prezentacji, o tym, o czym ty tak naprawdę mówiłeś
na tegorocznej Pragmie. Co było tematem?
Tematem był cały tytuł prezentacji w języku angielskim,
to Joys and Challenges of a Sightless Coder.
Active vs. Passive Information, czyli na polski
blaski i cienie programowania po niewidomemu,
informacje aktywne i pasywne. O co chodzi?
Opowiadałem w gruncie rzeczy o tym, w jaki sposób kod może być przekazywany
użytkownikowi niewidomemu poprzez syntezę mowę
i czym są informacje aktywne i pasywne.
Zacząłem od tego, od zdefiniowania sobie tych dwóch pojęć.
Informacje aktywne to takie, o które muszę w jakiś sposób
komputer odpytywać, czyli nie wiem, powiedzmy chcę sprawdzić,
w której linii jestem, muszę nacisnąć jakiś skrót klawiszowy.
Chcę sprawdzić, nie wiem, czy jest jakiś błąd w danej linii,
muszę nacisnąć skrót klawiszowy.
Podczas gdy informacje pasywne to są informacje, które uzyskuję
w jakiś inny sposób od systemu, czy to poprzez dźwięk,
czy to poprzez zmianę wysokości, prędkości mowy i tak dalej.
Czyli na przykład, no nie wiem, jak mamy powiedzmy w takim codziennym
funkcjonowaniu to informacja pasywna jest jak, nie wiem, w NVDA
masz błąd w pisowni i masz dźwięk. To jest informacja pasywna.
Nie musisz naciskać żadnego dodatkowego klawisza, żeby wiedzieć.
Jest też taki charakterystyczny dźwięk, albo można sobie skonfigurować,
żeby mówił, że po prostu jest błąd.
No tak, ale mowa to już trochę jest problem, bo nie otrzymujesz
tej informacji jednocześnie z tą informacją.
No i moja prezentacja była zrobiona na zasadzie systemu progresji.
System progresji to jest taki system budowania narracji,
gdzie pokazujemy jakąś drogę od punktu A do punktu B.
To znaczy, moja prezentacja składała się z kilku części.
Po pierwsze wstęp, czyli sobie tam opowiadałem o tym, czym są te pasywne informacje,
czym są te aktywne informacje.
Ja sobie tu przesunę nawet…
Dla mnie już w ogóle to, co napisałeś we wstępie, bo ja teraz mam przed sobą
również tę prezentację i sobie ją przeglądam.
I dla mnie to już jest niesamowite, o czym ty piszesz we wstępie.
130 tysięcy niewidomych programistów według ankiety Stackoverflow.
Tak, mnie też to zdziwiło, bo też ważna rzecz…
No niestety właśnie to jest problem, że to jest tyle rzeczy do opowiadania,
że przepraszam Was, słuchacze, że tak skaczę, ale to jest powiązane.
Gdybyś mi powiedział, że 130, to bym stwierdził, że zabał,
ale że 130 tysięcy, to jest aż niesamowite.
To jest niesamowite, nie? Ale właśnie jedną rzecz ważną chcę powiedzieć,
że pytanie tak naprawdę, po co my chcemy robić prezentacje,
po co my chcemy przemawiać na konferencji, bo oczywiście bardzo fajne jest to,
że chcemy się podzielić jakąś wiedzą, ale dla mnie osobiście
niesamowicie magicznym przeżyciem było to, że ja musiałem zgłębić jakiś temat
i mimo tego, że jestem programistą, jestem niewidomy, więc teoretycznie wiem,
jak to działa, ale na takim teoretycznym poziomie np. ilu jest niewidomych programistów,
nie wiedziałem tego, zanim zacząłem pracę nad swoją prezentacją tegoroczną, tak?
Czyli dla mnie to też była jakaś nowość.
No tak, bo wcześniej to w sumie ta informacja nie była ci potrzebna.
Ważne, że ty programujesz, ważne, że tworzysz kot, a czy ktoś jeszcze?
No wiadomo, że nie tylko ty, ale że to aż tak duża ilość…
To robi wrażenie.
Potem, właśnie po tym pierwszym wstępnym slajdzie był drugi, gdzie rozwijałem trochę
temat tego pierwszego, czyli o tych informacjach i nakreśliłem osobom widzącym
na przykładach ich życia, czyli że np. czerwona postrzępiona linia
dla nich oznacza błąd, na fioletowo coś to jest atrybut itd., itd.
I powiedziałem właśnie w tym slajdzie, że osoby widzące nie muszą w żaden sposób
odpytywać komputera czy systemu o te informacje, które mają bezpośrednio przed oczami.
Przede wszystkim osoby widzące to też nie korzystają z komputera tak jak my,
czyli nie korzystają tak bardzo punktowo.
Jak osoba widząca gdzieś tam sobie ogarnia powiedzmy cały widoczny ekran z kodem,
no to dla tej osoby to wszystko ma ze sobą pewne powiązania, tak?
Że tu jest taka linia, tu jest taka funkcja, tu jest coś.
A my w jednym momencie jesteśmy zawsze skupieni na jednym konkretnym elemencie.
Czy to jest linia, czy to jest nagłówek, czy to jest właśnie ten konkretny np. błąd.
No właśnie o to chodzi. Tylko, że wiesz, osobom widzącym trzeba to wytłuczyć
w taki sposób, żeby one zrozumiały.
Bo też moja prezentacja przechodziła przez wiele iteracji.
W pierwszej prezentacji pokazywałem przykład takiego bardzo starego edytora tekstu,
który się nazywa EL.
I edytor tekstu EL polegał na tym, to jest edytor jeszcze starszy od Emaksa,
i ten edytor wyświetlał tylko jedną linię tekstu naraz.
No tak, jeżeli chciałeś dopisać np. albo jakkolwiek manipulować,
to tam były specjalne komendy, to był edytor EL i jeszcze chyba taki edytor ED, czy ED?
ED, ED, tak. Bo EL był trochę starszy, no.
I to była pierwsza wersja mojej prezentacji, ale tam potem stwierdziłem,
że no w sumie to trochę się to mija z celem, żeby pokazywać technologię z 60 lat, czy tam 50.
Ale w historii komitów mojego repozytorium, które będzie chyba podlinkowane pod audycją
jest ten slajd, można go wygrzebać.
No i potem właśnie o co chodzi z tą narracją progresywną.
Potem kolejny slajd opowiadał o aplikacji Xcode i tam pokazywałem,
specjalnie wywołałem pewien błąd, który tam powodował, że mi się zawiesił kursor,
pokazywałem w jaki sposób możemy sprawdzać, czy mamy błąd w kodzie,
pokazywałem kilka sposobów, też znowu mini progresja, bo najpierw pokazywałem rekompilację projektu,
czyli to jest bardzo wolne, no i generalnie tak sprawdzać błędy to jest ciężko.
Potem pokazałem tak zwany issue navigator, czyli nawigator problemów w Xcode,
który otwieramy skrótem command plus 5.
Czyli może tak, rekompilacja projektu, to po prostu chodzi o to, że tworzymy z tego kodu postać binarną
i czekamy, czy nam się coś nie wywali w trakcie.
Tak, czy nam się coś nie wywali w trakcie, tak.
Potem pokazywałem ten issue navigator, czyli ten nawigator problemów
i tam mówiłem, że to jest w sumie fajne, bo wiemy jakie są błędy,
ale mamy tylko połowę informacji, bo nie wiemy gdzie te błędy występują do końca.
No i tam pokazałem taki trick, że jak sobie naciśniemy command 5 na błędzie po raz drugi,
to nam wyrzuci nas do tego elementu, do tej linii, w której ten błąd występuje,
ale pokazałem z kolei też kolejny błąd voiceovera, że voiceover wtedy czyta samą linię,
a nie tylko ten konkretny błąd.
I potem pokazałem trzeci sposób, czyli nawigację pokrętłem voiceover po błędach
i powiedziałem, że to jest najszybszy sposób,
ale jego mankamentem jest to, że wiemy gdzie jest błąd,
ale z kolei nie wiemy jaki to jest błąd.
I podejrzewam, że w ogóle co niektórzy użytkownicy, nawet i zaawansowani,
ale nie korzystający z voiceovera, to się w ogóle zdziwili, że jest coś takiego jak pokrętło,
bo przecież dla osoby widzącej to jest w ogóle koncepcja zupełnie nieznana.
Tak i też do tego sobie przejdziemy, jakie ta prezentacja miała potem skutki,
bo miała i właśnie ludzie się mnie pytali, czy ja mogę pokrętło w swojej aplikacji zaimplementować,
bo mam milion sposobów na to, jak wykorzystać pokrętło.
Odezwali się potem do mnie ludzie, ale to nie wyprzedzajmy faktów.
Jasne.
Potem przeszedłem do kolejnego programu, czyli do Visual Studio Code.
Jak ktokolwiek śledzi moją działalność programistyczną trochę i tak dalej,
to wie, że o Visual Studio Code mam zdanie, delikatnie mówiąc, nie najlepsze.
No nie jesteś entuzjastą, delikatnie mówiąc.
Ale obiektywnie rzecz ujmując, ten program jest o niebo lepszy od Xcode’a pod kątem dostępności.
No i nic tu tego nie zmieni, po prostu tak jest.
I tutaj zaczęliśmy już mieć przebłyski aktywnych informacji.
W sensie otworzyłem sobie kod, który specjalnie wcześniej zepsułem,
żeby był w nim błąd.
I chodziłem sobie strzałeczką i Visual Studio Code zaczął mi piszczeć na błędach.
No i wtedy osobom widzącym byłem w stanie powiedzieć,
tak, o to chodzi z tymi pasywnymi informacjami.
Wy macie czerwoną, postrzępioną linię.
Ja mam dźwięk i wiem, że tutaj, w tym konkretnym miejscu, jest błąd.
No i wówczas potem pokazałem też jeszcze kilka innych rzeczy,
że np. jak ja poprawię ten błąd, to dźwięk natychmiast znika.
A jak np. jest jakieś ostrzeżenie kompilatora, to jest inny dźwięk.
I dzięki temu zaraz podczas, nawet jak piszę kod, a nie tylko go przeglądam,
jestem w stanie wiedzieć, jestem w stanie jakoś kontrolować, powiedzmy, jakość tego kodu.
Potem jeszcze zahaczyłem o to, w jaki sposób ja sobie w voiceoverze czytam wcięcia.
I tutaj też powiedziałem, że możemy sobie czytać mową, ale to jest problem.
Zanim nam przeczyta indent 1, indent 2, indent 4, indent 8 itd., to mija trochę czasu.
Ale można sobie dźwięki dorobić, tak? Czy jest jakiś tam tryb nawet chyba?
Tak, potem pokazałem właśnie tą implementację dźwięków i pokazałem,
dlaczego ona nie jest idealna, bo te dźwięki są za długie i się bugują.
Więc też pokazałem na zasadzie takiej, że tak sobie szybko chodzę po kodzie.
No i tam się zapytałem publiczności, czy byli w stanie mi powiedzieć,
ile bloków kodu przeskoczyliśmy. No nie byli, ale ja też tego akurat nie wiedziałem,
bo implementacja dźwięków i indentacji w voiceoverze jest po prostu zła.
No więc trudno, no nie? Po prostu chciałem też publiczność jakoś…
Bo o to chodzi w prezentacji, że ja na przykład jako osoba niewidoma
ciężko mi jest mieć kontakt wzrokowy z publicznością, tak?
Więc ja muszę znaleźć jakiś inny sposób, żeby utrzymać ich uwagę.
W moim wypadku to było zadawanie pytań publiczności.
I tu przypuszczam, że publiczność była raczej taka dość chętnie wchodząca w interakcje,
no bo to były tematy, które są im z jednej strony znane, no bo mowa o programowaniu,
ale zupełnie z innej perspektywy podane, tak jak w swoim przypadku.
I też mogli trochę się wczuć, że tak powiem, bo jakby to powiedzieć,
w naszym środowisku programistów iOSa Xcode to jest jeden wielki mem.
Więc to, że ktoś nie ma takich problemów z Xcodem, jakie ja mam,
to nie znaczy, że nie ma stu tysięcy innych.
Więc też było sporo śmiechu tam na sali, tam ludzie się śmiali i tak.
No ale potem skończył się VS Code i pojawił się Emacs, czyli tryb…
I ciekawe to w ogóle bardzo mnie zastanawia, no bo programowanie to jest powiedzmy
taka sztuka, w której już jednak ten komputer znamy dość dobrze, no bo przynajmniej w teorii.
Zakładając, że piszemy jakiś kod, to wiemy o co w tym wszystkim chodzi.
Ale podejrzewam, że nawet i wśród programistów niewielu jest takich, którzy używają Emacsa.
Tak, miałem bardzo dużo pytań, że oni myśleli, że Emacs to tylko na Linuxie i w ogóle do innych języków.
Jak w ogóle ja to zrobiłem, że Emacs ze Swistem tak dobrze działa?
I że to w ogóle jeszcze ktoś używa tego, nie?
No, także… także tak.
Natomiast potem właśnie był Emacs.
No i w Emacsie jest ten system wielu głosów, czyli każda czcionka ma zmapowany swój głos.
I tutaj znowu miałem osobną konfigurację Emacsa, żeby te głosy były bardziej wyróżniające się,
więc tam oczywiście pobawiłem się tymi wariantami Eloquence’a typu babcia, dziadek i tak dalej,
więc też się ludzie śmiali z tych syntezatorów.
No bo jakbym pokazał to na takich zwykłych syntezatorach, to nie wszyscy mogliby zrozumieć do końca o co w tym chodzi.
Nawet sobie zdać sprawę, że te głosy się zmieniają, bo to czasami…
Tak, właśnie o to chodzi.
Jak jest duży natłok tej syntezy, to ludzie już po prostu skupiają się na tym, że to tak szybko gada,
niż na tym, że się głos zmienił.
Tak, ja też to zwolniłem oczywiście, to też było w bardzo zwolnionym tempie.
Chwilę potem pokazałem na swojej prędkości, jak to działa.
No i potem pokazałem to, że osoby widzące mają tak zwane hover pop-ups.
Hover pop-ups to są takie dymki, które się pojawiają i na nich jest mały fragment dokumentacji jakiegoś kodu.
No i potem pokazałem jak sobie z tym radzi Emacs, czyli że w obu kanałach mamy nasz kod,
a w prawym kanale, do prawego ucha, mówi nam dokumentację.
I to też ludzi bardzo zaskoczyło.
Ja oczywiście powiedziałem o tym, że nawet osoby widzące, nawet osoby niewitome muszą się do tego przyzwyczaić,
że to nie jest tak, że każdy by chciał z czegoś takiego ukorzystać.
No i potem pokazywałem jakieś tam takie funkcje pomocnicze w Emacsie, czyli na przykład to,
że osoba widząca na przykład widzi od razu kiedy się kończy jaki blok w kodzie,
czyli tam od nawiasu do nawiasu, wiesz o co chodzi, nie?
Natomiast w Emacsie jest taki tryb, że jak sobie najadę na nawias, to czyta mi linijkę, która ten nawias otworzyła.
I o tym też mówiłem, że to po prostu bardzo pomaga.
No i potem było podsumowanie, gdzie wymieniłem kilka aplikacji, które ułatwiają mi życie jako programiście iOSa.
Jedną z takich aplikacji jest Helm for App Store Connect.
Strona App Store Connect to jest dramat taki, że szkoda gadać,
a Helm to jest klient, który pozwala z App Store Connect korzystać.
I też właśnie mówiłem, że App Store Connect nie jest dostępny,
ale dzięki temu, że ktoś, komuś chciało się zbudować dostępne narzędzie,
no to jestem w stanie z tego App Store Connecta korzystać.
No i potem było właśnie, jak już ja mówiłem o tym zakończeniu,
to na ekranie wyświetlił się duży, niebieski kod QR do mojego Linktree.
Linktree to jest taka strona, gdzie możemy różne swoje linki do socjalów wpuścić w jednym miejscu.
No i był koniec. Długie prawa podobno były, ja nie wiem, bo ja byłem tak zestresowany,
że nie do końca ich kojarzyłem.
Ale potem odzew był ogromny, ludzie się do mnie odzywali, pisali właśnie,
że na przykład, jak zaimplementować swoje pokrętło, czy się da, jak programuję,
że oni to chcieliby jakąś, trochę dostępność poprawić.
Rozmawiałem bardzo dużo na przerwie śniadaniowej z twórcą aplikacji LaunchBar,
to jest taki, coś jak Raycast i Alfred, no tylko po prostu konkurencyjna aplikacja
i on też mówił, że w sumie bardzo go zainspirowała ta audycja
i on chciałby poprawić wsparcie VoiceOvera i czy mógłby mi wersję testową wysłać.
I owszem, poprawił, dodał dźwięki do różnych typów wyszukiwań, co jest mega fajnym pomysłem.
I fajnie widać, że skorzystał z tej prezentacji mojej.
No i to było dla mnie najważniejsze, ten odzyw potem ludzi, że ludzie faktycznie
zaczęli się przejmować tą dostępnością, zaczęli tam, nawet ktoś z Apple’a tam się odezwał,
że w sumie to oni nie wiedzieli, że Xcode ma tak duże problemy i dobrze, że się ich uświadamia.
Hmm…
Tam jakaś pani mi jedna powiedziała, że jej to się nie podobało, bo slajdy były nie do końca zsynchronizowane
z tym, co ja mówiłem. No ale zawsze, zawsze takie coś się zdarzy.
Tym się nie ma co przejmować, no jak ktoś mnie zhejtuje.
Ze wszystkim jak się wychodzi do ludzi, czy nie wiem, czy z audycją w TVP, czy nie wiem, z czymkolwiek,
to zawsze trzeba się liczyć z tym, że komuś…
No, że komuś się nie będzie podobało.
Komuś się nie spodoba, ktoś na przykład…
Komuś się nie spodoba, bo nie. Komuś się nie spodoba, bo faktycznie coś źle na przykład zrobiłem, dajmy na to.
Albo kogoś temat nie zainteresuje, ale…
Albo kogoś temat po prostu nie zainteresuje.
Musi się tym podzielić, tym faktem, że nudny.
Właśnie, więc to…
Takie sytuacje są, takie sytuacje będą.
I takie sytuacje nie mogą wpływać na to, jak my potem na to reagujemy.
Ale ogólnie było to naprawdę bardzo fajne.
Mówię, no to na przykład, że ten twórca Lunchbara, czy tam…
Potem rozmawiałem z tym Maxem, z Janemanem, czyli z twórcą Ulissesa.
Też długo rozmawialiśmy na temat tej aplikacji, na temat jej dostępności, na temat przyszłości dostępności.
Też mają być poprawki w Ulissesie odnośnie dostępności.
Niedługo, swoją drogą, też się mogę tym podzielić.
A ilu spotkałeś takich użytkowników, takich programistów na Pragmie,
którzy stwierdzili, no tak, my świadomie implementujemy dostępność,
my wiemy, o czym mówisz, fajnie, że gdzieś tam jeszcze pokazałeś dodatkowe rzeczy,
bo zazwyczaj, no to jednak mają do czynienia z użytkownikami swoich technologii,
a nie z osobami z niepełnosprawnością wzroku, które jeszcze programują.
Ale jakaś taka świadomość dostępności jako takiej wśród programistów Apple jest?
Widać to, czy nie do końca?
Jest, ale na przykład bardzo wiele osób mi mówiło, że okej, no my byśmy na przykład chcieli zaimplementować,
ale ten Accessibility Inspector, który jest zbudowany w Xcode, to jest program do niczego.
Ten taki inspektor dostępności, że tam twórcy mogą sobie sprawdzać, jakie ich aplikacje są dostępne, no nie?
No i ja powiedziałem, no tak, ale jest inna aplikacja, UI Browser, która jest o wiele lepszym narzędziem do tego
i tam też się wiele osób zainteresowało tym.
Więc tak, no też ciekawe, bardzo dużo Polaków było naprawdę i bardzo dużo ludzi z Polski się do mnie odezwało potem,
że fajnie, że ktoś z Polski, więc też dużo z Polakami rozmawiałem, odpisywałem na maile i tak dalej.
Mhm, no to rzeczywiście bardzo fajnie, że udało się, że ta konferencja dała Ci, no też nie oszukujmy się, sporo kontaktów,
bo to też jest w tej branży istotne.
No o to z tym chodzi, o to w tym chodzi, tak naprawdę po to się jeździ na te konferencje, jak są na przykład przerwy na kawę.
No o tym też wiadomo, fajnie jest na sali, ale myślę, że też trzeba porozmawiać o tym, co poza salą.
No właśnie.
Na takich eventach jest to duży problem, bo przeważnie, i to nie jest tylko kwestia pragmy, jest szwedzki stół i sobie trzeba samemu radzić.
Z reguły ludzie są chętni do pomocy, ale trzeba trochę też mieć takie inicjatywy, bo w tak dużym tłumie, jeżeli my na przykład, nie wiem, nie poprosimy kogoś i tak dalej,
nikt nas nie wyłowi, tak, bo jest bardzo dużo ludzi. Każdy z każdym rozmawia, więc jest mega głośno na tych przerwach i trzeba podjąć jakąś inicjatywę,
żeby na przykład coś sobie znaleźć. No, mi było dużo łatwiej po prelekcji niż przed, bo wszyscy potem podbijali i rozmawiali,
bo tam też każdy prelegent miał taką plakietkę z imieniem, nazwiskiem i z tytułem prezentacji swojej, żeby się potem ludzie mogli odnajdywać,
więc też to bardzo fajne było. Na końcu konferencji była loteria, niektórzy prelegenci dawali jakieś swoje książki, nie wiem, aplikacje, rękodzieło,
co tam kto robił, więc też bardzo fajne. I nic mi się nie udało wygrać, tak jak w tamtym roku zresztą, ale ludzie wygrali różne fajne rzeczy.
A jak ta loteria w ogóle wyglądała, to się kupowały jakieś losy?
Nie, każdy był uprawniony do losu, po prostu każda plakietka uczestnika miała numer i ten numer był losowany i wyznaczane były osoby.
No i wstawały osoby z miejsca, podchodziły, odbierały nagrodę. Były książki, były aplikacje różnego rodzaju.
Było kilka licencji Ulyssesa, tamtego Beara i Rocket Sim, też taka aplikacja dla programistów, więc bardzo, bardzo fajna atmosfera.
Potem była taka kolacja dla prelegentów, to już było trochę mniej osób, wiadomo, 20 osób. No i też było bardzo przyjemnie, sobie porozmawialiśmy.
Była taka pani, która się interesuje bardzo drukowaniem 3D i jak ona się dowiedziała, że ja też w OpenScadzie coś robię, to była też bardzo zaciekawiona tym.
No i też właśnie porozmawialiśmy, miło spędziliśmy czas i potem każdy się rozjechał w swoją stronę.
Ale niesamowite wydarzenie. Było mi bardzo przykro, jak się dowiedziałem, że to ostatnie prawdopodobnie Pragma.
Bo ta informacja się pojawiła w trakcie konferencji.
Na samym końcu. To też bardzo, myślę, fajnie ze strony organizatorów, że oni nie otworzyli tego, no już ostatni raz robimy, ale miejcie jeszcze jeden raz.
Tylko faktycznie z honorem do tego myślę podeszli. Bardzo było to zorganizowane profesjonalnie i dopiero na samym końcu, jak organizatorzy zamykali całą konferencję,
to ogłosili po prostu, że nie będzie już dalszej Pragmy. No i dobrze, że na końcu, bo nikomu nie zepsuto dzięki temu fajnych dwóch dni. Tak mi się wydaje przynajmniej.
No dobrze, to w takim razie myślę, że warto powiedzieć, gdzie, jeżeli ktoś jest zainteresowany, gdzie można z tymi Twoimi materiałami, które są zamieszczone w internecie się zapoznać.
I gdzie można w ogóle Ciebie posłuchać, jak kodujesz na żywo.
Tak, można mnie posłuchać na YouTubie. Ja tam Ci wysyłam linka, a jak kogoś interesuje forma tekstowa, to mogę przedyktować, bo linków z YouTuba to ciężko dyktować, bo wiadomo.
Ale jak ktoś chce sobie zobaczyć tekstową formę mojej prezentacji, to jest www.github.com
www.github.com
I to jest repozytorium, możecie sobie sklonować to repozytorium, tam jest kilka plików.
Jest plik main.txt, to jest plik z prezentacją.
Jest makefile, czyli możecie sobie zbudować PDFa z tej prezentacji.
Jest plik outline.org, czyli moje notatki prywatne, te nie dla publiczności, że tak powiem.
Jest folder emacs, gdzie jest konfiguracja emacsa, która została stworzona specjalnie na potrzeby prezentacji.
Jest folder samples, gdzie jest ta testowa aplikacja, którą stworzyłem na potrzeby prezentacji.
Która korzysta z iLeaf, budowanego w urządzenie, żeby analizować nasz kod źródłowy pod kątem błędów i innych rzeczy.
Tak dla zabawy, w 20 linii jak się uwinąłem z tą aplikacją, po prostu żeby mieć coś co się uruchamia i coś co działa.
Jasne. Okej, to w takim razie pytanie, co dalej, jeżeli chodzi o taką Twoją bytność na konferencjach?
Pragma fajnie, udało się i to dwa razy, ale skoro Pragma się kończy, masz już jakieś plany takie na przyszłość?
Mam, złożyłem CFP do Singapuru i to jest pod koniec stycznia i powinno się udać, mam takie informacje.
I na pewno się uda w Pradze na mobikomie w czerwcu, bo też złożyłem CFP i to CFP zostało rozpatrzone pozytywnie już.
Więc czeka mnie Singapur i Praga.
Praga to bliżutko, ale Singapur to trochę świata zwiedzisz.
Bliżej Chin, bliżej Chin.
A w Chinach jakieś konferencje takie dla programistów EPU są?
Są, jest jedna w listopadzie, ale jeszcze nie ma otwartego CFP.
Jeszcze jest w Leeds w Anglii, ale też jeszcze nie ma otwartego CFP.
I jest jeszcze Try Tokyo, no jak sama nazwa mówi w Tokio, ale z tego co wiem do Japonii po niewidomemu ciężko jechać, więc się tam nie pcham w tym roku jeszcze.
A Japonia ponoć takim dosyć dostępnym krajem jest jako taka.
A to ciekawe.
Dlatego, że tam dużo niewidomych jest w ogóle.
No przez Hiroshima i Nagasaki chociażby, tak?
No tak.
I wszelkiego rodzaju powikłania.
Bo to potem pokoleniowy problem.
Dokładnie, dokładnie. Więc ja słyszałem na przykład właśnie o Japonii, że to taki dość przyjazny nam kraj.
Ale no to może, może.
A jakie masz pomysły jeżeli chodzi o tematy, o których chciałbyś opowiadać?
No w Singapurze na pewno będę opowiadał o tym w jaki sposób tworzyć, w jaki sposób tworzyć dostępne wizualizacje danych za pomocą biblioteki Swift Charts.
Nawet nie chodzi o dostępność dla osób niewidomych, tylko w ogóle w jaki sposób możemy wizualizować dane za pomocą tej biblioteki.
Bo Swift Charts to jest niesamowicie fajna biblioteka, która pozwala nam tworzyć różnego rodzaju wykresy i nie tylko, bo diagramy też danych.
No i co? No i z tą biblioteką jest taki problem jak z wieloma bibliotekami od Apple’a, że oni sobie zrobili bardzo fajną bibliotekę,
tylko zapomnieli o jednej bardzo ważnej rzeczy, czyli dokumentacji.
Aha.
Więc mam taki pomysł, nawet mam pomysł w Singapurze na zorganizowanie tych długich warsztatów właśnie o tej wizualizacji danych w Swift Chart.
Bo to jak rozumiem, jeżeli jest taka biblioteka bez dokumentacji, to jak się w ogóle, tak podpytam, jak się pracuje z taką biblioteką bez dokumentacji?
No wiesz, czytasz nagłówki, czyli te pliki .h, pytasz na forach, jak masz jakieś kontakty w Apple’u, to już w ogóle jest super,
bo wtedy ktoś tam Ci podpowie na przykład. Po GitHub’ie można się rozglądać. Bardzo dużo ukrytej dokumentacji, jak ja to nazywam, jest w filmikach w WWDC,
bo oni robią te filmiki na zasadzie, no dziś pokażemy Wam, jak zbudować fajną aplikację z użyciem biblioteki Swift Charts i powiemy Wam, jak tej biblioteki używać,
ale to nigdzie nie będzie napisane, tylko będzie powiedziane na filmiku, nie? I to polowanie, że tak powiem, za dokumentacją, tak samo jak na przykład,
jak stworzyć syntezator mowy w iOSie, da się, bo powstał eSpeak, ale to nie jest tak, że twórca sobie przeczytał dokumentację, tylko sobie obejrzał filmiki,
bo dokumentacji nie ma do dziś.
I to jest właśnie problem. Szkoda, że Apple z jednej strony jako taka firma, która naprawdę robi dużo też i dla dostępności, ale że o te dokumentacje jakoś tak nie dba.
Czy to brak czasu, czy to jakieś…
Nie wiem z czego to… Podobno to zawsze był problem. Podobno od czasów Mac OS-a 10.0, bo wcześniej dokumentacja była na bardzo wysokim poziomie, podobno,
ale od czasów tego Mac OS-a 10.0, czyli gdzieś od roku 2001, no, pogorszyło się to bardzo.
Może kwestia oszczędności?
Możliwe, możliwe.
No okej Jorku, to tak naprawdę przeszliśmy przez Pragmę tegoroczną. Nie skupialiśmy się jakoś już bardzo na tym, o czym mówiliśmy w zeszłym roku,
no bo tak naprawdę nie ma sensu, myślę, powtarzać tego samego. Jeżeli ktoś jest zainteresowany Twoimi pierwszymi wrażeniami z bycia w ogóle na takiej konferencji…
Tak, bo to było moje pierwsze wydarzenie tego typu.
Dokładnie. To zapraszamy do tej audycji z roku 2024, a tymczasem, cóż, to ja Ci życzę owocnego przyszłego roku, bo, no, myślę, że będzie też o czym opowiadać.
No będzie, szczególnie tam o tym Singapurze, nie?
No.
Wiem, że na Pragmie w tamtym roku, znaczy nie na Pragmie, tylko na tym mobikomie w Pradze, przepraszam, był Pan, którego gracze mogą znać, Lukasz Hoschnedl.
On zajmował się projektowaniem dostępności do gry 1428, Shadows over Silesia, więc w Pradze to nie będę pierwszą niewidomą osobą, która tam coś mówiła.
Więc to też ciekawe, myślę, ciekawy fakt.
No ciekawe jak w Singapurze.
No, nie wiem, w Singapurze nie wiem.
Pożyjemy, zobaczymy. A na dziś to tak naprawdę tyle, jeżeli chodzi o to nasze spotkanie.
Pragma 2025a 2025, wygląda, że ostatnia konferencja właśnie pod tą marką, chociaż zobaczymy, co tam będzie w przyszłym roku.
No zobaczymy, bo na Linkedinie ludzie się oburzyli, tam deklarowali pomoc itd., więc zobaczymy.
Może się uda.
Mam nadzieję, że się uda.
A na tegorocznej Pragmie był i o niej opowiadał i o swojej prezentacji również opowiadał Arkadiusz Świętnicki.
Dzięki za dziś, Arku.
Bardzo dziękuję.
Do usłyszenia.
Do usłyszenia.
Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.