Salonik u Jacka, Odcinek nr 9: Napisy na żywo, czyli sztuczna inteligencja wciąż potrzebuje człowieka (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry.
Dzisiaj gości u mnie Monika Szczygielska.
Najlepsza specjalistka od napisów na żywo, a nie jest to wcale taka prosta technologia,
jakiej jakby się można było spodziewać przy dzisiejszych sztucznej inteligencji,
rozpoznawaniu mowy.
I o to wszystko Monikę dopytam, ale na początek, dzień dobry Moniko,
pozwolisz się z Tobą najpierw przywitam.
Dzień dobry Jacku, dzień dobry Państwu.
Napisy to jest coś, co jest chyba najczęściej taką spotykaną usługą dostępnościową
w multimediach.
Audiodeskrypcja jest ciągle dość rzadka, tłumaczenia na język migowy również.
No i te napisy są chyba tak najczęściej spotykane, a pierwsze pytanie moje takie,
to dlaczego się w ogóle nimi zajęłaś?
Kiedy zaczynałam zajmować się dostępnością, zainteresowania z zakresu dostępności cyfrowej,
spotkały się z dwiema moimi prywatnymi historiami.
Po pierwsze, moja babcia nie słyszała i kiedy oglądała telewizję, zawsze denerwowała się,
że nie docierają do niej wszystkie treści.
Moja babcia zmarła w bardzo zaawansowanym wieku, mając 94 lata i do końca życia czytała książki.
Gdyby w telewizji wówczas były napisy, mogłaby odbierać pełen komunikat.
A tak, tylko oglądała obrazy i się frustrowała.
Drugi taki epizod, miałam taką przygodę, że częściowo straciłam wzrok.
I wtedy właśnie czytanie głosowe, czyli napisy w drugą stronę,
były dla mnie bardzo pomocnym rozwiązaniem.
I wówczas okazało się, że owszem, dostępność u nas w Polsce 10 lat temu kuleje,
ale w zakresie napisów kuleje bardziej.
Już na świecie używano napisów na żywo, a w Polsce cały czas słyszałam, że się nie da.
I postanowiłam samodzielnie sprawdzić, czy naprawdę się nie da.
Okazało się, że się da i to z całkiem niezłym efektem.
A komu właściwie te napisy są potrzebne?
Twoja babcia nie słyszała.
Ja też miałem taką babcię, ona słyszała, ale ciągle narzekała, że tam tak niewyraźnie mówią.
Komu jeszcze?
Kiedy w Wielkiej Brytanii zrobiono badania na temat użytkowników napisów,
okazało się, że 80% użytkowników to statystyczni mieszkańcy Wielkiej Brytanii.
Zadziwiające, prawda?
Nie osoby niesłyszące, a przeciętni użytkownicy telewizji.
BBC konkretnie, tak?
Między innymi BBC, wówczas 100% mieliśmy napisów na niektórych kanałach, na innych 80%.
Generalnie w brytyjskiej telewizji tych napisów jest dużo, dużo więcej niż w Polsce.
Okazało się, że osoby, które chodzą do pubów, gdzie jest głośno, korzystają z napisów.
Ludzie, którzy w domu potrzebują pracować w ciszy, używają napisów oglądając telewizję.
Mama, która usypia swoje dziecko, a ogląda wiadomości, skorzysta z napisów.
Osoba, która nie słyszy, skorzysta z napisów.
Ale także osoba, dla której język angielski nie jest pierwszym językiem, skorzysta z napisów.
Rozumiem, że dlatego, że łatwiej zrozumie tekst pisany niż mówiony, tak?
Tak, łatwiej zrozumie tekst pisany niż mówiony,
albo lepiej zrozumie jednocześnie słysząc i widząc, co jest mówione i pisane.
Dodatkowo nie każdy w Wielkiej Brytanii jest natywnym użytkownikiem języka.
Mamy tam wielu obcokrajowców, którzy mówią z różnymi akcentami.
I dla odbiorców, kiedy mamy napisy, jest znacznie, znacznie łatwiej.
Do tego trzeba pamiętać, że Wielka Brytania nie jest krajem dubbingowym.
Tam, kiedy film nadawany jest w obcym języku, np. po francusku,
wszyscy oglądają go z napisami.
To trochę inaczej niż w Polsce i w krajach bloku Europy Wschodniej,
gdzie wszystko mamy albo z lektorem, albo z dubbingiem.
Dopiero od stosunkowo niedawna mamy wybór
między wersją lektorską, a wersją z napisami.
Może to się bierze stąd, że większość kinematografii to jednak jest po angielsku.
Więc oni tak naprawdę niezbyt często mają konieczność tłumaczenia, nie?
Pewnie jest to jeden z czynników, które za to odpowiada,
ale na świecie kraje dzielą się na dubbingowe i napisowe.
Zobacz, np. Szwajcaria wcale nie jest krajem, w którym,
w językach, w których tam się mówi, oficjalnych,
w których powstaje dużo filmów.
A jednak nie powstają tam filmy ani z dubbingiem, ani z lektorem,
a właśnie z napisami.
I w wersji oryginalnej puszczone są filmy w telewizji
z napisami dla wszystkich.
To są napisy zamknięte czy otwarte tam w BBC?
Kiedy mówimy o napisach dla osób słabosłyszących
i dla osób głuchych, bo tak w Wielkiej Brytanii określane są napisy
for deaf and hard of hearing, mówimy o napisach zamkniętych.
Czyli każdy, kto ich potrzebuje, może je włączyć.
Kiedy mówimy o napisach w filmach obcojęzycznych,
których teoretycznie użytkownikami mogą być wszyscy,
to są napisy otwarte.
Od razu film emitowany jest takimi napisami
i nie można ich włączyć ani wyłączyć.
To jest wersja napisów dla osób słyszących.
Czasami dodatkowo nadawany jest ten sam film
z napisami dla osób niesłyszących.
I wówczas można wyłączyć takie napisy.
Czy to ma sens, że dla osób słyszących te napisy są otwarte,
a nie zamknięte?
Przecież takie osoby też mogą chcieć włączyć, wyłączyć.
Wiesz co, jest to kwestia innej technologii prawdopodobnie
i przyzwyczajeń.
Gdybyśmy oglądali ten film w internecie,
na pewno byłyby to napisy zamknięte.
I tak jest na przykład na Netflixie.
Możesz sobie wybrać wersję językową napisów czy na DVD.
W brytyjskiej wersji DVD bardzo często mogłeś sobie wybrać,
czy są to napisy dla słyszących,
czy są to napisy dla niesłyszących lub w innym języku.
Na Netflixie rzeczywiście to jest bardzo fajne.
Mogę też sobie, nie zawsze, ale też wybrać audiodeskrypcję.
Bardzo rzadko w języku polskim,
przeważnie w języku oryginału filmu,
ale tak masz rację, możesz wybrać również audiodeskrypcję.
Troszkę jest tych filmów,
ale to nie jest temat na dzisiaj.
Jakbyś mogła mi powiedzieć,
bo ja przyznam, że to jest dla mnie nieintuicyjne.
Dlaczego napisy, które można włączyć albo wyłączyć
nazywają się zamknięte,
a te, których nie można włączyć, wyłączyć
nazywają się otwarte?
Trochę to jest nieintuicyjne moim zdaniem.
Tak, jest to oczywiście nieintuicyjne.
To od angielskich, amerykańskich pojęć
closed caption i open caption.
I wiąże się to dokładnie z zastosowaniem napisów.
Te, których nie jesteśmy w stanie wyłączyć,
które będą częścią ekranu,
to są napisy otwarte.
Te, które mamy w dodatkowym pliku tekstowym,
możemy je włączyć i wyłączyć.
To są napisy zamknięte.
Wiąże się to oczywiście z zastosowaniem napisów.
I tak jak mówiłam, w krajach,
w których powstaje content w języku oryginału,
tak jak Stany Zjednoczone czy Wielka Brytania,
i te kraje, które nie są krajami dubbingowymi,
napisy otwarte stosowane są w telewizji
wówczas, kiedy emitowany jest film w obcym języku.
W Polsce napisy otwarte w telewizji
możemy zaobserwować wtedy,
kiedy pojawia się wypowiedź w obcym języku,
albo wtedy, kiedy mowa jest zniekształcona,
czyli np. kiedy stosowane są programy
do zniekształcania mowy,
gdy wypowiada się świadek koronny,
albo gdy ktoś mówi w sposób bardzo niezrozumiały.
Wówczas stosowane są napisy,
by każdy przeciętny odbiorca
mógł przeczytać, co jest mówione.
Też jak puszczają takie fragmenty
z jakichś wykradzionych nagrań,
niekoniecznie to jest wyraźnie mówione,
albo dobrze nagrane,
to też trzeba takie napisy,
jak choćby np. skrzynek z samolotu,
który się rozbił pod Smoleńskiem.
Tak, to jest dokładnie ten sam powód.
Zniekształcenie mowy,
trudność zrozumienia
i wówczas właśnie dodawane są napisy,
by każdy odbiorca mógł je zrozumieć.
Takie napisy przeważnie są
graficzną częścią ekranu.
Później, kiedy chcemy cokolwiek zmienić
w filmie wideo, mamy problem,
bowiem musimy ingerować w obraz.
Musimy zajrzeć do wersji oryginalnej,
pracować na innej kopii,
by pozbyć się tych napisów,
albo by je zmodyfikować.
Tego problemu nie ma,
kiedy mamy napisy zamknięte.
Wówczas otwieramy po prostu plik tekstowy
i wprowadzamy zmiany w pliku tekstowym
w najprostszych formatach napisów.
Możemy to zrobić nawet w notatniku.
Mamy jeszcze jedną przewagę napisów zamkniętych.
Czasami możemy sobie wyobrazić
taką sytuację w internecie,
gdzie użyjemy napisów zamkniętych
jako formy tłumaczenia filmu
w języku angielskim.
I wówczas ktoś, kto nie zna języka angielskiego,
a jednocześnie nie widzi,
może odczytać te napisy
za pomocą programu dosyntezy mowy.
Ale nadal mi nie powiedziałaś,
dlaczego jedne się nazywają zamknięte,
a drugie otwarte.
Skąd te nazwy są w ogóle?
Wydaje mi się, że dlatego,
że są otwarte, gdyż są cały czas na ekranie.
A zamknięte, bo możemy je zamknąć.
Włączyć i wyłączyć.
Dobrze.
Ma to jakiś sens, przyznaję.
Nie jest to intuicyjne
i zawsze zastanawiałem się,
dlaczego akurat tak się one nazywają.
A powiedz mi, gdzie takie napisy można dodać?
I raczej tu mam na myśli nie telewizję,
tylko takie różne media strumieniowe,
jakieś YouTube na przykład,
czy inny tego typu platformy.
Akurat na YouTube wiemy,
że można dodać napisy zamknięte.
A gdzieś indziej?
Tak, YouTube bardzo ładnie obsługuje
napisy zamknięte,
które dodajemy post factum
w wielu językach jednocześnie.
Dzięki temu możemy do jednego filmu
w wersji oryginalnej
dodać wiele wersji językowych.
Gdzie jeszcze?
Na przykład multimedia umieszczane
na Facebooku
bezproblemowo obsługują
napisy dodawane w pliku tekstowym.
Również na Twitterze możemy dodać
do multimediów napisy.
Gdzie musimy zastosować
napisy zintegrowane z obrazem,
zmontowane, tak zwane wypalone?
Na pewno na Instagramie
i również na TikToku.
Te dwa media
nie obsługują napisów.
To nawet ciekawe,
bo przecież Instagram jest własnością
Facebooka.
Skoro na Facebooku można,
to jakoś tak pomyślałem sobie domyślnie,
że na Instagramie też,
a tam się nie da, tak?
Być może Instagram był tworzony
dla mediów wizualnych, zdjęciowych.
Być może stąd.
Są programy, które pozwalają
napisy wypalić
bez problemu
i umieścić z gotowymi, otwartymi
napisami na Instagramie.
Powiedziałaś, że
wymieniałaś kilka
takich platform, gdzie
te napisy można opublikować.
Mam wrażenie, że takim
najbardziej rozpowszechnionym formatem
to jest SRT, tak?
Jest to jeden z najbardziej
podstawowych formatów.
SRT i VTT.
Dwa, które obsługiwane są
w internecie. Mówisz, że
są najbardziej znane, ponieważ
przeciętny użytkownik tworzy
napisy do internetu, nie tworzy
ich do telewizji. W telewizji
format STL, do kina również
przeważnie format STL
i jest to uznany standard,
który przenosi więcej treści
i daje więcej możliwości.
Na przykład jesteśmy w stanie w tym formacie
do telewizji kolorować
napisy i podnosić
napisy, zmieniać ich format.
Format SRT
nie obsługuje
ani kolorów w napisach, ani podnoszenia
napisów w sposób
prawidłowy. Również
funkcje playera tutaj
są istotne, jak te
rozwiązania będą działały.
A po co się koloruje
napisy?
Ja kojarzę tylko takie białe
napisy. Wiesz co?
W telewizji, Jacku, oznacza się
zmiany mówców
kolorami. Na przykład
przypisuje się kolor napisów
jednemu bohaterowi.
Przez cały film mówi on na przykład na żółto.
Innemu bohaterowi
przypisuje się kolor
niebieski czy zielony.
Dzięki temu nie trzeba
używać wizytówek.
Jest to jeden z formatów
oznaczania mówców w napisach
dla niesłyszących.
Wizytówek, czyli tekstu z imieniem i nazwiskiem, tak?
Tak, na przykład. Tekstu z imieniem i nazwiskiem
czy innej formy oznaczania
bohatera.
Jest to charakterystyczne
dla napisów dla niesłyszących,
bo w napisach dla słyszących
my słyszymy kto mówi, nawet nie rozumiemy
jeśli nie rozumiemy
co mówi, to słyszymy,
że w danym momencie jest inny
na barwa głosu bohatera.
Jesteśmy w stanie zidentyfikować
bohatera,
jeśli jednocześnie widzimy
i słyszymy, nawet
jeśli nie rozumiemy co bohater mówi.
A coś oprócz kolorów
jeszcze się stosuje w takich
napisach? Dla niesłyszących?
Tak, opisujemy istotne
dźwięki, nie każde dźwięki.
Amatorzy mają to do siebie, że
potrafią podpisać każdy śmiech
i każde szczekanie psa, nawet jeśli widzimy
tego psa na ekranie. Zasada
jest taka w napisach dla niesłyszących,
że opisujemy
istotne dźwięki, czyli na przykład
jeśli
coś dzieje się poza kadrem,
co innego jest
na ekranie, co innego widzimy na ekranie,
a jakiś istotny
dźwięk słyszymy w tle
i nie możemy wywnioskować,
zrozumieć akcji bez tego
dźwięku, wówczas opisujemy ten dźwięk.
Przykład? Jesteśmy w pokoju,
jemy obiad,
czyli rodzinna
sytuacja na ekranie
i nagle słychać
dzwonienie telefonu.
Nie widać tego telefonu, ale go
słyszymy.
Wówczas podajemy, że dzwoni telefon,
bo pewnie
mina kogoś, kto będzie na zbliżeniu
będzie wskazywała na jakieś
dźwienie zainteresowanie.
Inna sytuacja.
Piękny krajobraz
i nagle słyszymy
dźwięk nadjeżdżającego pociągu.
Będzie nam
to sygnalizowało,
że coś się zaraz wydarzy.
Ale nie widzimy tego,
bo nie widzimy tego pociągu.
I to są takie sytuacje, w których
przede wszystkim o
nagłych rzeczach, które są poza kadrem
albo o
rzeczach związanych
z zagrożeniem, kiedy
muzyka czy dźwięki
sygnalizują zagrożenie.
Wówczas piszemy to właśnie
w opisie, w napisach.
Ale co się pisze? Na przykład
zaczyna się film Szczęki
i tam jest taka
bardzo znany motyw muzyczny.
I co trzeba napisać wtedy?
Na przykład piszemy, że jest to
groźna muzyka
albo nerwowe dźwięki.
Zależy, jaka to jest muzyka.
Albo nadjeżdżający pociąg.
Albo dzwonek
telefonu. Czy dzwonek
do drzwi.
To, co mi mówiłaś o tych
napisach, to bardzo do mnie trafia, bo ja to samo
mówię o tekstach alternatywnych,
żeby nie opisywać wszystkiego,
tylko to, co jest
istotne, kluczowe dla danej
grafiki.
A często zdarza się, że jednak ludzie opisują
wszystko i to nie jest
potrzebne, ale czasem jednak utrudnia
zapoznawanie się z treściami.
Tutaj musimy wyważyć,
co jest istotne, ze względu na
prędkość czytania. Oczywiście
jak zapytasz osób
szczególnie słabosłyszących,
że oni mówią, że są
mistrzami czytania, że czytają dużo szybciej
niż przeciętna osoba, owszem
są w stanie trochę szybciej czytać
i więcej przeczytać. Ale jeśli
do tekstu, którego jest
dużo do czytania, dodamy jeszcze
drugie tyle opisu dźwięków,
to nikt tego nie zdąży przeczytać.
I nawet jeśli skupi się
tylko na czytaniu tekstu, to straci
przyjemność oglądania filmu, bo nie zdąży
patrzeć na obraz. A w tym momencie
trzeba to wyważyć. Więc jeśli
ja widzę na ekranie szczekającego
psa albo śmiejącego
się człowieka, to po co to
podpisywać?
Słusznie.
Wydaje mi się, że nawet
jesteś autorką standardów
tworzenia napisów, tak? Dobrze pamiętam.
Jestem współautorką
standardu napisów
na żywo w języku obcym.
Stłumaczenia z języka obcego.
A w Polsce
autorami wytycznych
na temat tworzenia napisów
dla niesłyszących jest
między innymi Iza Kunstler,
która tworzyła to dla
Fundacji Kultury Bez Barier.
To są pierwsze
wytyczne na temat napisów,
a drugie wytyczne na temat
napisów zostały stworzone
przez
Krajową Radę Radiofonii i Telewizji
i tutaj owszem już byłam
jednym z konsultantów.
Czyli jednak dobrze mi się kojarzyło.
Ale nie jestem współautorem.
Okej.
Trzeba oddać sprawiedliwość innym
osobom, które mają tutaj dokonania.
Powiedz mi, w czym Ty
przygotowujesz napisy
te statyczne? Bo rozumiem, że Tymi też
się zajmujesz, tak? Czy tylko
na żywo? Zajmuje się tym mój zespół
Dostępnie EU.
I nasi napisowcy
przede wszystkim
tworzą napisy korzystając
z oprogramowania profesjonalnego
i jest to
przede wszystkim Easy Titles.
Co byś doradziła innym, którzy
mogą sobie nie poradzić
z narzędziami takimi
profesjonalnymi, a i pewnie też
drogimi, jak się domyślam.
W czym mogliby umieć?
Każde narzędzie wymaga przygotowania.
Zapoznanie się zarówno
z narzędziem i
opanowanie narzędzia.
Bez względu na to, czy to będzie
kompletnie bezpłatny
subtitle edit, czy będzie to
częściowo odpłatny albo
mniej odpłatny happy scribe,
czy będzie to całkowicie profesjonalny
Easy Titles, czy będzie to darmowa
amara, czy już narzędzie
w którym się bardzo ciężko
tworzy napisy, ale jest to
możliwe, dostępne na
YouTubie. Niezależnie od
tego trzeba poświęcić czas, by
poznać narzędzie. I druga
kwestia. Trzeba zapoznać się
z zasadami tworzenia
napisów. Nie tylko obsługa narzędzia,
ale także
nauczenie się zasad.
Bez tych zasad te napisy będą
trudne i niekoniecznie
profesjonalne.
Tak jakbyś miała
wymienić trzy najważniejsze
z tych zasad. Ja wiem, że ich jest więcej,
ale takie trzy, które szczególnie
trzeba zapamiętać. Przede wszystkim
poprawność językowa
i ortograficzna tekstu.
A druga zasada
wierność tego
tekstu i zgodne
z zasadami skróty w tekście,
bo tekst w napisach
nigdy nie jest dosłowny.
I po trzecie
podział napisów
na wiersze zgodnie
z logiką języka polskiego
i z zasadami podziału tekstu.
Z tym amatorzy
najczęściej mają problem.
Czwarta zasada to prawidłowa
synchronizacja tekstu
z dźwiękiem.
Nie jest tego jakoś bardzo dużo
mam wrażenie. Po prostu się trzeba trzymać.
Nawet przy
tych krótkich
zasadach, bardzo
ograniczonych, bo jest ich
więcej, i tak można popełnić
bardzo wiele błędów.
Standardowy kurs
napisów, zwykłych napisów
to jest jeden semestr i drugi
kurs napisów dla
niesłyszących. To jest drugi
semestr, trzeci semestr
to kurs napisów na żywo
i tacy ludzie
trafiają do nas, do firmy
i wówczas mają trzy miesięczny staż,
by być dopuszczonym do pracy.
To dużo semestr,
żeby się nauczyć robić napisów.
Mam wrażenie, że to jest
długo. To jest tak skomplikowane?
Czy jaki jest powód?
To nie jest to tak skomplikowane, no ale jednak
jeśli tworzysz napisy dla słyszących,
tworzysz je z
materiału w obcym języku. Jeśli
tworzysz napisy dla niesłyszących,
musisz się nauczyć
bardzo sprawnego
obsługiwania narzędzia,
by móc na tym zarabiać, by być
efektywnym w tym,
co robisz. Jeśli
chcesz tworzyć napisy
na żywo, musisz
opanować
umiejętności tłumaczy
simultanicznych, czy to w obrębie
języka polskiego,
czy z tłumaczeniem z języka obcego,
ale także software.
Nie wiem, czy to jest dużo.
Ludzie, którzy trafiają do
nas po kursie akademickim,
jeszcze przechodzą nasze wewnętrzne szkolenie
i ćwiczą, ćwiczą, ćwiczą,
ćwiczą, zanim zostaną
dopuszczeni do pracy na żywo.
Widzicie, użytkownik
nie wybacza błędów.
No dobrze, skoro
doszliśmy do tych napisów na żywo,
to powiedz mi, gdzie się właściwie
takich napisów na żywo używa?
Mam wrażenie,
że to jest ciągle dość mało
popularne.
Używa się ich w telewizji
podczas programów na żywo.
Przede wszystkim serwisy informacyjne
i debaty polityczne.
Konferencje prasowe,
szczególnie w czasie
kryzysu zagrożenia.
To jest pierwsze miejsce, gdzie używa się
napisów na żywo.
Drugie miejsce, wszelkiego rodzaju
konferencje i wydarzenia finansowane
z funduszy unijnych,
gdzie jest wymóg
stosowania napisów na żywo
w transmisji online.
Pozostałe miejsca, gdzie korzystamy
z napisów na żywo, to raczej dobra
praktyka niż
wymóg prawny.
Niemniej jednak użytkownicy
bardzo, bardzo potrzebują tych napisów.
Podczas konferencji, w których
uczestniczą, gdzie jest
rozumiałość mowy i podążanie
za wypowiedzią
jest kluczowe.
To będą wykłady,
to będzie uczelnia,
to będą konferencje tematyczne,
w których uczestniczą osoby
słabosłyszące.
To będą wszelkiego rodzaju
eventy polityczne
i wydarzenia
kulturalne. Nie możemy
powiedzieć, że podczas jednego
wydarzenia napisy są potrzebne
bardziej, czy podczas innego
mniej, bo to już
wkraczamy w kwestię
zainteresowań osób
słabosłyszących i te osoby
dla jednego
ciekawy będzie wykład
profesora o fizyce, dla innego
konferencja prasowa,
premiera, czy konferencja
o nowych mediach.
Tutaj nie możemy wchodzić już
w decydowanie, co jest bardziej
potrzebne, a co mniej. No dobrze.
To powiedz
mi w takim razie, jak takie napisy
można przygotowywać. Na razie
postawmy jeszcze te twoje
profesjonalne napisy. Tylko powiedz
mi, jak ktoś, kto
organizuje taki event
może zadbać o
napisy na żywo. Według mnie
jedyne skuteczne rozwiązanie to
kupić tę usługę na zewnątrz.
Czyli żaden tam
transkryptor, który będzie szybko
pisał na klawiaturze, czy coś w tym rodzaju
to nie wchodzi w grę. Nie mamy w Polsce
takiego rozwiązania. Osoby,
która szybko pisze na klawiaturze, bowiem
nie mamy specjalistycznej klawiatury.
Mamy osoby,
które robią szybko notatki, ale
szybkie robienie notatek
to nie jest możliwość
tworzenia napisów na żywo. Ze względu
na to, że taka osoba, która
robi notatki, przede
wszystkim upraszcza
tekst i zapisuje
co którejś zdanie. To, co
jest najważniejsze. A nie tworzy
w miarę wiernych napisów.
Oczywiście według zasad
tworzenia napisów. To trochę smutne.
Muszę Ci powiedzieć.
No dobrze, a… Wiesz, można
powiedzieć, że jest to trochę smutne.
Oczywiście można się tego nauczyć.
Ale czy rozpaczamy nad
tym, że każdy z nas nie jest w stanie
sam uszyć sobie butów?
Albo zrobić wędliny?
Czy sera?
Każdy z nas to potrafi.
Zazwyczaj idziemy i kupujemy w sklepie.
To prawda.
Co nie jest wykluczone, że jesteśmy się
w stanie tego nauczyć i jest to kwestia
wyłącznie determinacji
włożonego czasu.
I oczywiście zwolenności
także, bo wiemy już
z badań, jakie umiejętności
trzeba mieć, aby takie napisy
stworzyć. A co z takimi narzędziami
na przykład jak Microsoft
Teams, które od pewnego
czasu potrafią robić taką
transkrypcję na żywo
i to po polsku.
Ja sobie to oglądałem i to
naprawdę działało całkiem, całkiem.
Tak.
Mamy oprogramowanie, które jest
w stanie automatycznie
dokonać transkrypcji
mowy na polsku.
Zazwyczaj w pewnych
określonych sytuacjach będzie ono
działało całkiem nieźle.
Ale jaka to jest ta pewna, określona
sytuacja? Po pierwsze,
muszą być spełnione dobre
warunki akustyczne. Po drugie,
musi wyraźnie mówić jeden
mówca we w miarę naturalny sposób.
Po trzecie, nie może
używać specjalistycznych
pojęć bądź
marek, które
występują w nienaturalnym kontekście.
I wówczas faktycznie
takie narzędzia automatyczne
mogą sobie poradzić. Niemniej
jednak zawsze może się
zdarzyć, że będzie jakieś
podobne słowo,
które maszynowe rozpoznawanie
mowy rozpozna
inaczej niż byśmy chcieli.
I tekst będzie w kontekście
zrozumiały, ale będzie znaczył zupełnie
coś innego. Taką sytuacją,
która drogo Polskę kosztowała,
było
automatyczne tłumaczenie
filmu,
w którym premier tłumaczył, że w Polsce
nie było żadnych polskich
nazw śmierci.
I niestety automatyczne tłumaczenie
pominęło nie.
Skandal dyplomatyczny
gotowy.
W BBC również się tak zdarzyło kilka
razy, gdzie jedna litera
zdecydowała o tym, że
zamiast roku konia wyszedł
wulgarnie rzecz
ujmując, rok ulicznicy.
Jedna litera.
Muszę sprawdzić w takim
razie w słowniku, bo
zaciekawiłaś mnie.
Nie będę przyklinać publicznie.
Dobrze, bo mamy taki ustawiony
na tym podcaście poziom,
że dzieci mogą tego słuchać, więc rzeczywiście
dziękuję, że
nie muszę tego wycinać.
A to w takim razie, opowiedz jak to ty robisz?
Albo raczej
twoja firma.
Już opowiadam. My korzystamy z
metody jedynej, która w Polsce
pozwala na profesjonalne
tworzenie napisów z takim
efektem. Korzystamy z metody
respeakingu, to znaczy
wykorzystujemy oczywiście automatyczne
rozpoznawanie mowy i
transkrypcję mowy na tekst,
ale wprowadzamy
dodatkowo pośrednika
między mówcą a oprogramowaniem,
czyli respeakera.
Osobę, która powtarza
po mówcy. To jest
pierwszy element, który
zmienia nam automatyczne rozpoznawanie
mowy. Taka osoba
wie w jaki sposób mówić,
by poprawić efekt rozpoznawania
mowy.
Przykładowo, jeśli widzi, że
jakiś wyraz się nie rozpoznaje,
używa synonimy.
Ponadto,
aby poprawić
rozpoznawanie mowy,
przed każdym wydarzeniem do słownika
wprowadzamy
pojęcia, które mogą być
dla rozpoznawania mowy obce.
Czyli
powiększamy zasoby słownika
i testujemy je.
Tego się nie da zrobić w aplikacjach
do automatycznego rozpoznawania
mowy, takich, o których wspomniałeś.
Nie da się
poszerzyć tego słownika.
My nie mamy nad nim kontroli.
A w naszym oprogramowaniu
zawsze możemy sprawdzić,
czy dane słowo występuje,
czy musimy je dodać do słownika.
Ponadto, aby poprawić
efekt rozpoznawania mowy,
mamy jeszcze moderację.
Druga osoba
w czasie rzeczywistym
poprawia to, co
pokazuje się na ekranie.
I dzięki temu te napisy
mają naprawdę wysoką jakość.
To oprogramowanie
do rozpoznawania mowy,
czy ono
się dostosowuje, albo czy raczej tak
jakoś profilujesz pod kątem
resplikera, czy to raczej respliker
się musi dostosować do tego oprogramowania?
Wiesz co? Kiedyś, na samym początku
tak było. Tylko to
oprogramowanie powstawało w innej technologii.
Od kiedy mamy
inteligentne rozwiązania i sieci
neuronowe wykorzystywane
w tworzeniu oprogramowania
do rozpoznawania mowy
nowej generacji, oprogramowanie
adaptuje się do mówcy.
I teoretycznie
nie ma znaczenia
profil głosowy mówcy.
Ale wiemy z badań,
że głosy kobiece
na starcie rozpoznają się lepiej
jak głosy męskie.
Więc kobiety mają
taki mały plusik
w rozpoznawaniu mowy.
Na świecie stosowane są różne metody.
Jest specjalistyczna klawiatura
i można
bardzo szybko pisać na tej specjalistycznej
klawiaturze i również program
dekoduje napisy.
Można korzystać z metody resplikingu.
Czasami korzysta się
też, ale w bardzo
specyficznych sytuacjach
z samej moderacji
automatycznego rozpoznawania mowy.
Zawsze jednak tam,
gdzie mają być
profesjonalne i wysokiej jakości
napisy, potrzebny jest
człowiek. We wszystkich
standardach europejskich
mowa jest o tym, że
jeśli chcesz korzystać z profesjonalnych
napisów właśnie ze względu
na te nawet rzadkie,
ale bardzo bolesne pomyłki,
korzystaj z
usług człowieka. Kiedy
automatyczne rozpoznawanie mowy
kompletnie sobie nie poradzi?
Wtedy, kiedy w debacie
uczestniczy kilku mówców, którzy
sobie przerywają. Czyli na przykład
obrady sesji Rady Miasta.
Wówczas
nie ma mowy, kiedy ludzie się kłócą,
kiedy poziom emocji jest bardzo wysoki,
kiedy wchodzą sobie w słowo.
Niestety oprogramowanie
do rozpoznawania mowy automatycznie
przestaje sobie radzić.
Następnie technologia,
czy internet, czy
nagłośnienie nie radzi sobie, kiedy mamy
przerwę w dostawach. Wówczas
również oprogramowanie sobie
nie poradzi. Człowiek tutaj
może wydać komunikat. Mamy
przerwę techniczną albo
nie słyszę dźwięku i
odbiorca dostaje jakiś komunikat.
A podczas automatycznego
rozpoznawania mowy albo
dostajemy treść kompletnie niezrozumiałe,
bełkotliwe,
albo oprogramowanie staje
i przestaje produkować
tekst. Odpowiedziałaś mi też na pytanie,
które mi się nasuwało, to znaczy
po co ten respeaker, skoro
jednak to i tak będzie automat rozpoznawał
mowę? Czy rozumiem, że to jest kwestia
poziomu dokładności,
tak, przede wszystkim? Tak, poziomu
dokładności i jako
jakość tekstu.
Respeaker też może w momencie, kiedy
ktoś pięć razy w koło powtarza to samo
zredukować ten tekst,
dzięki czemu tekst będzie bardziej zrozumiały
i
krótsze będzie opóźnienie.
Respeaker może również
pominąć pewne elementy,
które standardowo pomija
się w napisach, zarówno dla słyszących
jak i dla niesłyszących, czyli
nic nie wnoszące powtórzenia
albo
tak zwaną mowę trawy, watę słowną,
wszelkiego rodzaju
e, y,
czyli to, kiedy myślimy
na głos, a wydajemy z siebie jakieś dźwięki.
Jak ciebie
słucham, i teraz nie mówię o treści,
tylko o sposobie mówienia,
to mam wrażenie, że ty też to ćwiczyłaś.
Mówisz tak bardzo
wyraźnie, z otwartymi ustami.
To jest
rzeczywiście coś, czego się uczyłaś, żeby
też być respeakerką? Nie.
Ja nie pracuję jako respeaker, ale za to
miałam ćwiczenia z dykcji.
Pamiętaj, że pierwsze studia skończyłam
na Wydziale Dziennikarstwa i Nauk Politycznych.
Tak?
Te same co ja?
E, politologię.
Na Uniwersytecie Warszawskim?
Na tym samym kierunku, na tym samym
wydziale, ale ja skończyłam
jako pierwsze studia politologię, nie politykę społeczną.
Powiedz mi,
gdzie można takie napisy zdawać?
Bo wiemy już, że te SRT,
te, które się tam edytuje i potem
wkłada do filmu,
to już wiemy gdzie.
A co można zrobić z takimi napisami na żywo?
Bo ja mam wrażenie, że na to
też oprogramowanie musi być odpowiednio
przygotowane, prawda?
Tak. Przede wszystkim trzeba
zintegrować oprogramowanie
do tworzenia i edycji
napisów z oprogramowaniem
do rozpoznawania
mowy i oprogramowaniem,
w którym emitowany jest film.
W telewizji wygląda to tak,
że należy
dokonać połączenia
trzech ogniw. Programu,
w którym tworzymy napisy, program,
który nam automatycznie rozpoznaje
i przerabia mowę na tekst
i oprogramowaniem telewizyjnym.
A kiedy jesteśmy
w świecie internetu,
musimy zadbać o to, by
program, w którym edytujemy napisy
i emitujemy, wypuszczamy
do emisji, by był
zintegrowany z programem do
rozpoznawania mowy. A te dwa
muszą być zintegrowane
z programem, w którym
dokonujemy transmisji na żywo,
czyli z oprogramowaniem streamingowym.
Na szczęście w oprogramowaniu
streamingowym zazwyczaj
możemy emitować napisy
na dwa sposoby. Jeśli
nie ma możliwości
emisji napisów zamkniętych,
bo niedokonana
została integracja między
polskojęzycznym
oprogramowaniem, czy
polskojęzycznym oprogramowaniem
do edycji tekstu, możemy
wówczas wypuścić napisy
otwarte, jako napisy
graficzne. Tutaj mamy
drugie rozwiązanie, które
oprogramowanie streamingowe
nam umożliwia. Oczywiście mówimy
o profesjonalnym oprogramowaniu
streamingowym
na pełnej, płatnej licencji,
a nie programach
do darmowej transmisji.
No dobrze, a ktoś
by chciał tak jednak na przykład
z YouTube’a skorzystać, żeby transmisję
albo z Microsoft
Stream, albo no nie wiem
z czego tam jeszcze, a
na Facebooku chyba też można.
Można i zawsze
tutaj pośrednikiem jest
jakaś forma profesjonalnego
oprogramowania streamingowego,
czy w wersji płatnej, czy bezpłatnej.
Nie transmituje się
bezpośrednio napisów
w formie tekstu, zarówno
na Facebooka, jak i na YouTube’a,
bowiem w obydwu wypadkach mamy
kolizję z polskim oprogramowaniem
i nie
jesteśmy się w stanie zsynchronizować,
a w przypadku Facebooka do niedawno
nie było obsługi polskich znaków.
Czyli
potrzebne jest nam takie oprogramowanie
jak OBS na przykład, tak?
Na przykład.
I można do OBS wpuścić
taki tekst? W formie
tekstu nie, ale w formie obrazu
tak.
Wtedy wypuszcza się na Facebooka
w formie obrazu. Nie jest taka funkcja,
która umożliwia, tak jak
wstawiasz graficzną wizytówkę, czyli
podpis człowieka, tak jesteś w stanie
robić na żywo
obraz tekstu z napisami
i emitować napisy na żywo.
A te narzędzia, typu
właśnie Google Meet,
Microsoft Teams, Zoom,
co tam jest jeszcze, ten od
Cisco, którego nie pamiętam jak się nazywa,
no jest tego coraz więcej.
Tak, bo masz myśli jeszcze o Webexie pewnie.
Webex, tak. Okropna rzecz.
Programem, który bezproblemowo
pozwala
obsługiwać napisy
na żywo zewnętrzne jest Zoom.
Bez żadnej integracji
Zoom obsługuje szybkie pisanie
na klawiaturze, a
po integracji obsługuje
napisy tworzone metodą
respeakingu. To wymagało to
wypełnienia dodatkowo
środowiska i dodatkowej
aplikacji do emisji takich
napisów. Co bardzo, bardzo ważne,
jaka jest różnica podstawowa
między napisami,
które tworzymy do gotowych
filmów, a napisami na żywo.
W napisach do gotowych filmów
kluczowa jest dla nas synchronizacja
obrazu z dźwiękiem za pomocą
kodów czasowych. Na żywo
nie mamy kodów czasowych.
Na żywo kod
czasowy powstaje w momencie
emisji, czyli w momencie wypuszczenia
napisu.
No ale jest, powstaje.
I aby uniknąć
opóźnienia,
my jesteśmy w stanie
opóźniać w profesjonalnym
oprogramowaniu streamingowym,
opóźniać obraz i
dźwięk w emisji,
by zsynchronizować się z napisami.
Inaczej
napisy, tak jak każdy
rodzaj tłumaczenia, będą
opóźnione. Czy to będzie
ułamek sekundy, czy to będzie
kilka czy kilkanaście sekund
przy tłumaczeniu
na napis z języka obcego?
Zawsze to opóźnienie będzie.
Jest ono nieodłącznym
elementem napisów na żywo.
Trzeba się z tym pogodzić
i to zaakceptować.
Opóźnienie jest parametrem
wpisanym w definicję napisów
na żywo i jednym z elementów
obok dokładności
badanych przy badaniu
jakości napisów na żywo.
Jakie jest to opóźnienie?
Tak jak powiedziałam,
od ułamka
sekund do kilkunastu
sekund nawet. Jeśli
wypuszczamy napisy semi-live,
czyli są to napisy z tekstu
wcześniej przygotowanego,
ale emitowane na żywo,
to opóźnienie jest od sekundy
do trzech sekund.
A jeśli są to napisy
z udziałem respekera
i moderatora,
to będzie kilka sekund,
na przykład pięć,
sześć, osiem sekund.
A jeśli z tłumaczenia
na przykład tekstu w języku
angielskim, gdzie mówca mówi w języku
angielskim, będzie to dziesięć, piętnaście
sekund.
Takie
opóźnienie w transmisji, mam wrażenie,
że jest częściej
stosowane nie tylko ze względu na napisy na żywo.
Jeżeli widzowie mogą, czy słuchacze
mogą dzwonić, to żeby
uniknąć takich dziwnych sytuacji,
żeby pojawić na antenie
jakieś niecenzuralne słowa,
jakaś awantura,
to się opóźnia, tak? Dobrze mi się kojarzy, tak?
Tak.
Tak. Bardzo często
właśnie z tego powodu,
że nie chce się mieć nieprzewidzianych
sytuacji na antenie,
albo nieprzewidzianego komentarza,
czy nieprzewidzianego pytania przy reakcjach
na żywo, opóźnia się
transmisję, by mieć czas
na reakcję,
ale także właśnie ze względu
na czas na stworzenie napisów.
To
tworzy się trochę bardziej komfortowa sytuacja
wtedy dla kogoś,
kto przygotowuje napisy, bo jednak ma troszkę
więcej czasu
na to, tak?
Te kilkanaście sekund
pozwala stworzyć napisy
o bardzo przyzwoitej jakości.
Mówiłaś, że
napisy na żywo
i te napisy
do filmów gotowych
różnią się tym, że
jedne mają te znaczki
czasu, a drugie
też w pewnym sensie mają, ale one
powstają w trakcie. Czyli
nie ma tej pełnej synchronizacji.
Ale czy można takie napisy wykorzystać?
Potem one są zapisywane, można je wykorzystać, żeby
do nagrania potem
przykład takiej konferencji
takie napisy dodać?
Można, jeśli prędkość
wypowiedzi mówców
jest stała, a czasem
zdarza się, że jest to wykład jednej osoby,
która mówi z takim samym opóźnieniem
cały czas, w ten sam sposób,
a wystarczy
automatycznie przesunąć
znaczniki czasowe
i jest to bardzo dobry materiał wyjściowy.
A w innych momentach
ten materiał, który mamy z napisów
na żywo, my przeważnie
korygujemy te napisy.
Korygujemy je, jeśli gdzieś
na przykład wiemy, że
powstał błąd, albo wiemy, że
gdzieś jest jakiś brak, jakaś lukał,
uzupełniamy ten fragment,
czy też korygujemy
podpisywanie mówców.
Gdyż w napisach na żywo bardzo często
nie wiemy, kto mówi.
A definicja napisów na żywo wymaga
od nas oznaczenia
zmiany mówców. Czasami jest to
po prostu strzałeczką,
że od tego momentu mówi ktoś inny.
My nie zawsze wiemy, kto mówi.
I wówczas ten rodzaj
oznaczenia
zastępuje nam wizytówki. Kiedy
przygotowujemy napisy
dla gotowego filmu, my zawsze
podpisujemy mówców,
oznaczamy mówców, tak by
wiadomo było, kto w danej
sytuacji mówi.
Czyli to jest taki dobry
półprodukt, czy nawet trzy czwarte produkt
do napisów
takich zamkniętych, tak?
Tak.
Tak, one powstają wtedy w zupełnie innym czasie.
Pada już ta nazwa dostępnik,
bo to jest firma, która zajmuje się
właśnie napisami na żywo.
Kto zamawia
takie napisy u Ciebie?
To firmy raczej są
podmioty publiczne.
Jak to wygląda?
Mamy kilka kategorii odbiorców.
Przede wszystkim firmy na
zlecenie podmiotów publicznych
i wtedy
wiemy, że jest to finansowane
z funduszy unijnych.
Same podmioty publiczne,
w tym instytucje kultury
i
bardzo często uniwersytety
oraz
organizacje pozarządowe.
A instytucje
kultury na przykład?
Wymieniłam je.
Wymieniłam je.
Spektakli nie.
Spektakli nie tworzy się napisów na żywo.
To były napisy przygotowywane wcześniej,
bo scenariusz spektaklu
jest znany
z wyprzedzeniem i my wiemy,
co aktorzy będą mówili.
Wówczas przygotowuje się napisy
i tylko na żywo się je emituje.
To jest identycznie jak w wiadomościach
czy w programach informacyjnych
do materiałów
przygotowanych wcześniej.
Muszę Ci powiedzieć, że
ja mam trochę inne informacje.
Teoretycznie wie się,
co aktorzy powiedzą,
ale oni, zwłaszcza jeżeli już grają
jakiś spektakl długo,
to czasem dość mocno
odchodzą od oryginalnego tekstu.
Wówczas takie napisy się, Jacku, edytuje,
a nigdy nie tworzy się ich
na żywo faktycznie.
Edytuje się je,
zmienia się jedno, dwa,
trzy zdania, a potem wraca się do tego
tekstu wcześniej przygotowanego.
Nikt nie idzie
czy do opery, czy do teatru
z oprogramowaniem do tworzenia napisów
stricte na żywo.
Opowiedz jeszcze chwilę o tym,
czym się zajmujesz u siebie,
bo mam wrażenie, oprócz tego, że w firmę
to tak wspominałaś o tych studiach
podyplomowych.
Rozumiem, że też prowadzisz tego typu zajęcia.
Wspominałam o studiach
niekoniecznie podyplomowych, bowiem
napisów i dostępności
można się uczyć również na studiach
stacjonarnych drugiego stopnia.
W Instytucie Lingwistyki Stosowanej
tłumaczą, uczą się
tworzenia zarówno napisów,
napisów dla niesłyszących, jak i
napisów na żywo, a także dostępności
wydarzeń. W Instytucie Lingwistyki
Stosowanej zarówno ja, jak i
współtworzący ze mną
zespół dostępny Łukasz Dudka
wykładamy. Wykłady akademickie
to tylko jedna z części
mojej działalności.
Prowadzę jeszcze szkolenia
zarówno z zakresu dostępności
mediów, jak i
z dostępności wydarzeń,
bo to też moja specjalizacja.
A sam Zespół Dostępni EU
jest zespołem tłumaczy
zarówno napisowców,
jak i tłumaczy języka migowego.
Zajmujemy się również
audiodeskrypcją do
multimediów i
kompleksowym zapewnianiem
dostępności wydarzeń.
No to rzeczywiście, to znaczy, że
można robić
wszystko w zasadzie, tak? Jeżeli chodzi o
zwłaszcza te wydarzenia na żywo.
Tak, jeżeli chodzi o dostępność
wydarzeń, staramy się robić
to kompleksowo, nawet jeśli
dostarczamy tylko jedną
usługę, bardzo często jesteśmy
doradcą, ekspertem w procesie
zapewniania dostępności i łączenia
usług dostępnościowych,
bowiem
nie sztuką jest
zapewnić wielu tłumaczy,
sztuką jest tak
skorzystać z tych usług,
by zrobić to komplementarnie
i nie
wprowadzając kolizji
między różne usługi,
by zmaksymalizować zysk
z tych nakładów, zarówno
organizacyjnych, jak i finansowych,
które poniesie się na
zapewnienie dostępności.
A możesz rzucić jakąś nazwę, jakiegoś
wydarzenia, takiego znanego, które
obsługiwaliście? Ostatnio, na przykład
nasi napisowcy pracowali
przy Forum Miast
w Katowicach, międzynarodowym
potężnym wydarzeniu, gdzie
przez sześć dni, po wiele godzin
dziennie, do wielu
równoległych sesji
zapewniali napisy na żywo.
A to rozumiem, że międzynarodowa konferencja,
tak? Tak, była to wielka międzynarodowa
konferencja. Czyli to jeszcze
dodatkowy poziom trudności, bo jeszcze
w różnych językach, tak? Tak.
Jesteśmy w stanie,
akurat na tym wydarzeniu tworzyliśmy napisy
polskie. Czasami, gdy tłumacz
zawodził, tworzyliśmy napisy
międzyjęzykowe, ale jesteśmy w stanie
również realizować napisy w języku
angielskim, podczas wydarzeń
w języku angielskim.
I podczas takich wydarzeń
również pracujemy,
ale także jesteśmy w stanie
zapewniać
napisy polskie podczas
wydarzeń w języku obcym. I tak
do wielu wykładów akademickich
gości zagranicznych
tworzymy takie napisy na żywo.
Obsługujemy również inaugurację
roku akademickiego, bardzo
często zapewniając kompleksowo
usługi. Kompleksowo takie usługi
zapewniamy na przykład na Uniwersytecie Warszawskim,
gdzie dostarczamy zarówno
tłumaczenie sumaltaniczne, polsko-angielskie,
jak również tłumaczenie
na polski język migowy i
napisy na żywo. No to
to jest imponujące.
Jesteśmy w stanie zrobić jeszcze
wiele więcej, bowiem
zarówno podczas transmisji online,
jak i podczas wydarzenia
na żywo fizycznie możemy
realizować równoległe
usługi w wielu językach.
Zdarzało nam się, że dostarczaliśmy
na przykład podczas
tego samego wydarzenia napisy
w języku polskim do transmisji w języku
polskim i tłumaczenie na polski język
migowy oraz napisy w języku
angielskim, aby bardziej skomplikować
sytuację. Przykład
angielskie napisy realizowali
dla nas podwykonawca z Londynu.
Więc jesteśmy
w stanie robić wiele rzeczy
równolegle i też
jednocześnie.
Czasami w naszym zespole
pracuje nawet 30 osób,
by zapewnić dostępność
wydarzenia. Ja sobie wyobrażałem, że to też
technologicznie jest duże wyzwanie,
żeby połączyć te różne
dziwne systemy. Tak, technologia
ciągle jest dla nas wyzwaniem, ale
muszę powiedzieć, że pandemia
bardzo posunęła nas wszystkich do przodu.
Nie mówię tylko o moim zespole.
Mówię o wszystkich. Zarówno
wielkich dostawcach
technologicznych rozwiązań.
Przecież kilka lat temu
nie mieliśmy automatycznych napisów
w rozwiązaniach
Microsoftu. Dzisiaj je mamy.
Nie mieliśmy napisów
w Zoomie. Dzisiaj je mamy.
I powiem, że pochwalę się, że
w pierwszych tygodniach
pandemii udało nam
się wprowadzić
napisy na żywo w Zoomie
tydzień przed Londynem.
No proszę. Szybciej się
zintegrowaliśmy, niż
stało się to na rynku
znacznie bardziej doświadczonym od
nas, gdzie jest i konkurencja,
i gdzie napisy dostarczą się od 20 lat.
Bardzo Ci dziękuję Moniko.
Myślę, że to jest
temat, który powinien
zainteresować tych, którzy organizują
duże wydarzenia,
bo na początku powiedzieliśmy, że
nie tylko osoby głuche korzystają z
napisów. Organizując coś na żywo
warto zadbać o te napisy, żeby
jak najwięcej ludzi
mogło skorzystać
z takiego wydarzenia, z prezentacji,
czy przemówienia. I gratuluję Ci też,
bo to są rzeczywiście duże osiągnięcia.
Takie
na miarę chyba
światowe, nie?
Myślę, że
czasami konkurujemy z firmami
międzynarodowymi,
szczególnie podczas
wydarzeń akademickich.
Udaje nam się wygrywać przetargi
międzynarodowe, szczególnie w obsłudze
wydarzeń akademickich,
gdzie tworzymy napisy w języku
angielskim. Jeśli chodzi
o napisy na żywo, w przyszłym roku
będziemy obchodzili dziesięciolecie
napisów na żywo w Polsce.
A kto je zaczął? To też Wy?
Oczywiście, że my.
To był
mój eksperyment przeprowadzony
podczas konferencji Fundacji
Widzialni w Polskim Parlamencie.
Okej.
Dobrze, to jeszcze raz Ci dziękuję, Moniko.
Do widzenia.
Dziękuję, Jacku. I zapraszam.
Możesz podać jakiś namiar.
Zapraszam serdecznie do współpracy
z Dostępnie.
Szczegóły na naszej stronie internetowej
i w mediach społecznościowych.
Był to Tyflo Podcast.
Pierwszy polski podcast
dla niewidomych i słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu
rehabilitacji osób niepełnosprawnych.