Lookout (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Dziś w kalendarzu mamy czwartek, to jest drugi dzień lutego 2023 roku,
a my rozpoczynamy ostatnie w tym tygodniu spotkanie na żywo na antenie Tyflo Radia.
Michał Dziwisz, witam bardzo serdecznie.
A po drugiej stronie mikrofonu jest Krzysztof Bruzda.
Witaj Krzysztofie.
Dzień dobry, po raz kolejny.
Dzień dobry po raz kolejny i po raz kolejny coś do naszego wirtualnego studia ciekawego przyniosłeś.
Cóż to takiego jest tym razem?
To jest narzędzie, które już jakiś czas jest na rynku.
To nie jest jakaś nowość przez szereg, że tak powiem lat, że tak to nazwę, usprawnione.
Jest to wyrób firmy Google, a nazywa się Lockout.
Aha, i do czego ta aplikacja służy?
To jest taki, można by powiedzieć, odpowiednik androidowego Envision,
tudzież by odpowiednik iOS-owego tego tam, jak to się nazywa, nie pamiętam.
Też macie coś do tego.
To znaczy, no my mamy Envision i mamy też Thinki.
Tak, o tym mówię, o Thinki.
Także to jest mniej więcej podobna zasada działania, że tak powiem.
No i dzisiaj postanowiłem porównać dwie aplikacje, czyli ten Lockout z Envision,
bo różnica jest niesamowita, zwłaszcza od momentu, kiedy Envision stał się aplikacją darmową.
To prawda, bo kiedyś Envision, trzeba przyznać, że naprawdę działał dobrze,
od pewnego czasu niestety działa zdecydowanie gorzej.
Tak, Lockout mogę też porównać do już trochę zapomnianej aplikacji TapTapSee,
która rozpoznawała rzeczy na obrazkach i otoczenie.
Lockout ma trochę więcej możliwości, chociaż niewiele więcej,
za to ma te funkcje bardziej przydatne, no bo tu już można jakby rozpoznawać
po kodach kreskowych żywność, ale tego nie zademonstrujemy,
no bo przed audycją się próbowaliśmy tym bawić i niestety nie wspiera to polski,
ani polskiego języka, jak chodzi o rozpoznawanie, ale za to ma…
No Lockout przede wszystkim ma jedną cechę, której nie miało TapTapSee,
mianowicie Lockout potrafi rozpoznawać tekst.
Dokładnie.
I to jest chyba jego najmocniejsza strona, tak w ogóle.
Zgadza się. Rozpoznaje tekst, rozpoznaje ten tekst dość dobrze,
chociaż jak tutaj przed audycją się bawiliśmy, są problemy z polskimi, z ogonkami.
On rozpozna polski tekst, ale będzie czytał to bez ogonków, nie wiem dlaczego.
To znaczy on tak czyta raz tak, raz tak, jak mu się podoba,
jak dobrze pójdzie, to przeczyta z ogonkami, inne zdanie będzie bez ogonków,
ale generalnie rozpoznawanie jest dość dobre w porównaniu właśnie z darmowym Envision,
bo trzeba powiedzieć, że Lockout jest też darmowy, żeby nie było.
Zgadza się, tak.
Natomiast jego wadą jest to, zresztą podobnie jak i w przypadku Sync.ai,
że występuje tylko na jedną platformę, bo niestety Microsoft obiecywał,
niby obiecywał, że Sync.ai będzie na Androida i jakieś tam próby ponoć są,
ale ja też nie jestem na bieżąco, jeżeli chodzi o te aplikacje androidowe,
bo korzystam na co dzień z iOS-a, ale z tego co wiem, to nadal się nie doczekaliście Sync.ai, prawda?
Nie, nie, nadal nie ma, są jakieś faktycznie próby, jakieś zastępstwa,
ale to nie jest to, bo jest jeszcze taka aplikacja, ona się nazywa BrailleBring coś tam,
mam ją tu gdzieś zainstalowaną, teraz nie chcę jakby wprowadzać w błąd,
chyba że później znajdę to powiem, bo mam zainstalowaną,
to jest aplikacja, która rozpoznaje, podobno, chociaż też zauważyłem
straszne jakby tutaj niedociągnięcia, bo ona z założenia rozpoznaje wszystko,
tekst, otoczenie, ale wszystko w jednym jakby takim, w jednej wpiguce,
nie ma przełączników typu tu tekst, tu obiekty, tu coś, tylko po prostu włączamy
i idziemy po mieście, spotkamy tekst, będzie tekst, spotkamy obraz, będzie obraz,
także tutaj nie ma jakby rozgraniczenia, ona rozpoznaje wszystko,
ja się kiedyś tym bawiłem, jak byłem sam na przystanku i nie miał mi kto powiedzieć,
jaki to autobus, to wtedy mi posłużył ta aplikacja do tego, żeby rozpoznać,
co to jest autobus, więc powiedział mi, że pojazd, a jak dobrze nakierowałem
obiektyw aparatu, to powiedział mi numer, tylko że tutaj jest, nie wiem,
czy to jest wada, czy zaleta, jeśli włączymy tą aplikację,
to nie widzimy, co jest w obiektywie, aparat jest po prostu ciemny,
nie wiem, jak to jest zrobione, ale osoba widząca na ekranie nie widzi nic,
co jest w obiektywie, to trzeba zupełnie na wyczucie w tym momencie działać.
No to faktycznie nie jest to dobra rzecz, natomiast wracając do Lookouta,
to jest to aplikacja, którą dziś zademonstrujemy i trochę może też porównamy
z Envision obecnym, bo o ile kiedyś Envision działało naprawdę dobrze,
jeżeli chodzi o to rozpoznawanie tekstu, no to teraz jest naprawdę słabo
w porównaniu do tego, co mieliśmy, to jest po prostu zwyczajnie słabo.
Ale o tym wszystkim będziemy sobie dziś rozmawiać,
Wy też możecie brać aktywnie udział w tym naszym dzisiejszym programie,
zapraszamy Was bardzo serdecznie do tego, jeżeli macie ochotę się z nami kontaktować,
no to jest kilka metod, mamy kontakt tyflopodcast.net, mamy Facebooka,
mamy YouTube’a, mamy też naszego Zooma, tyflopodcast.netu.com,
zapraszamy Was bardzo serdecznie, możecie do nas też dzwonić,
jesteśmy do Waszej dyspozycji, a teraz myślę Krzysztofie,
że nie przedłużając, pora przyjrzeć się aplikacji Lookout.
Oczywiście, w tym celu sobie odblokujemy telefon,
będziemy mieli dwóch prowadzących.
Proszę bardzo.
Tak jest.
Mamy dwóch prowadzących.
Tu mamy Lookout.
W tej chwili on włączył latarkę, no bo mam zasłoniętą klapkę od aparatu,
dlatego, że jest zasłonięty aparat. Ale co my mamy?
Nie wykryto tekstu, etykiety żywności, przycisk.
No to jest to, o czym mówiłem, tutaj niestety nie pokażemy tego,
bo przed audycją…
Co ciekawe, on nas prosi dość często o pobranie różnych danych
do tych swoich analiz i na przykład, jeżeli chodzi o etykiety żywnościowe,
to poprosił nas o pobranie odpowiednich baz danych,
natomiast taka ciekawostka, w krajach, które tam były wymienione,
no niestety Polski nie było, on sobie pobrał domyślnie bazę dla Stanów Zjednoczonych.
Tak, i dlatego próbowałem z mlekiem, ale nie wyszło z przyczyn właśnie takich jak powyżej.
Co dalej mamy?
On tu będzie nam mówił, że nie wykryto tekstu, bo cały czas jest aparat zasłonięty.
Tekst, czyli to działa tak, może ja wyłączę w ten sposób, żeby nam tutaj nie przeszkadzało.
Jeden prowadzący może nam wystarczy.
No chyba niestety to nic nie pomogło, bo on cały czas mówi.
No dobra, to ja tak sobie odłożyłem, żeby nam tutaj nie…
Dobrze, funkcja, którą przed chwilą usłyszeliśmy, to jest funkcja, która czyta na bieżąco,
czyli jak tylko zobaczy jakiś tekst, od razu nam go mówi.
Polega to na tym, w przeciwieństwie do Envision Eye, że to robi zdjęcia,
po prostu klika cały czas migawką.
Jak my ruszamy telefonem, tak to klika migawką.
To nie ma tak, że ustawimy i o, teraz.
Tylko po prostu każdy nasz ruch jest fotografowany.
To za chwilę pokażę.
No i potem jest następna funkcja tego programu.
Mowa została, dokumenty, waluta, przycisk.
Waluta, tutaj nie mam pieniędzy przed sobą, więc też…
Ty już się całkiem na pieniądz elektroniczny przerzucili.
Tak, ja wszędzie kartą jagotówki nie noszę, więc tutaj musimy popróbować,
ale podobno działa dosyć dobrze.
Obrazy, beta, przycisk.
Obrazy, no to tutaj mamy rozpoznawanie z różnego rodzaju zdjęć i tak dalej.
Dokumenty, tekst wybrany. Dokumenty, przycisk.
Dokumenty. Dokumenty to jest to, co w nVision po prostu ustawiamy.
On nam mówi, jak się mamy względem dokumentu ustawić
i wtedy on jak uzna, że jest okej, cyka sobie zdjęcie
i rozpoznaje tekst na bieżąco, gdzie trzeba przyznać,
że robi to dość poprawnie.
Tak to wygląda.
Tu możemy sobie zmienić język.
Nie wiem, dlaczego wyłączanie aparatu tutaj jest,
bo jednak aparat jest tutaj integralną częścią współpracy tego programu.
No i w sumie tyle.
Możemy pokazać teraz, jak to mniej więcej działa.
Bo tutaj nie ma żadnych ustawień.
To jest tak prosta aplikacja, że po prostu nie ma jakby o czym opowiadać.
No i tu mamy logowanie, ale chyba, że w tym logowaniu coś jest.
A to raczej jest po prostu twoje konto Google.
Tak.
Tylko pytanie, czy ustawienia dotyczą się Google, czy programu.
Ustawienia.
A jest, widzisz, są ustawienia, ale to są takie…
To jest w tym logowaniu wszystko.
No i tu jest bliżej, dalej, w prawo, w lewo.
To jest to samo, jak ruszamy telefonem, to nam tutaj różne rzeczy
wibracją informuje nas o tym, że coś się dzieje.
No tutaj wybieramy sobie syntezator.
Wiadomo.
Czyli to mamy jakby niezależną mowę, niezależną syntezy mowy.
Tak, możemy wyłączyć po prostu nasz screen reader i polegać na tym,
tylko co do nas mówi sam program.
I będzie nam po prostu on mówił sam z siebie.
Co zresztą mieliśmy okazję zauważyć przed momentem, kiedy próbowałeś coś tam zrobić.
Tak, próbowałem wstrzymać mowę screen readera, a on i tak…
Resetuj przycisk.
Przejdź wyżej przy ustawienia.
Napisy do trybu…
No i dobra, no i to jest wszystko.
Już nic więcej nie zobaczymy.
Otwieram teraz aparat, żeby nam tutaj już coś się działo.
Jesteśmy w trybie tekst.
Ktoś tam zeskanował mi z boku nie wiadomo co.
Ja mam tu przed sobą książkę i spróbuję tę książkę zeskanować na bieżąco.
To jest tak czytane dlatego, że to jest na bieżąco, a książka jest rozłożona przede mną.
Ma dwie strony i on nie ma kolumnowania tak zwanego.
Więc on trochę czyta tego kawałek z prawej i ten kawałek z lewej.
No powiedzmy sobie szczerze, jeżeli nam zależy na tym, żeby dokument był dobrze przeczytany,
to raczej skorzystamy z tego trybu, który zademonstrujesz za moment,
bo to jest w ogóle do sprawdzenia, czy my mamy przed sobą jakikolwiek tekst.
Zgadza się.
To był tryb tekst.
Nie wiem czy słychać tą migawkę.
On cały czas robi zdjęcia na bieżąco jak ruszasz telefonem.
I to jest właśnie na bieżąco przetwarzany tekst.
I teraz tak.
Dokumenty. I to jest tutaj najfajniejsze w tym wszystkim,
ponieważ teraz przeczytamy sobie książkę bez względu na to,
czy ona ma dwie strony po lewej, po prawej, czy nie,
bo będzie nam to w miarę poprawnie już rozpoznawało.
O, takie są komunikaty.
To jest komunikat, kiedy program nie wie, co ma zrobić,
my stwierdzamy, ale jest okej, to możemy zrobić zdjęcie ręcznie.
I teraz posłuchajmy fragmentu.
Poczekaj, bo to jest nie…
Zeskanowałem stronę, na której były głupoty.
Jakaś okładka, jakiś obrazek, coś.
To jest tak bliski zoom, że ja chyba muszę wstać,
żeby była odpowiednia odległość.
No to próbuj.
I teraz możemy posłuchać.
Czekaj.
Kret to jest jeden z bohaterów.
Tutaj nam wkrada się druga strona.
Ale jakby wyrazy, które on odczytuje,
no to odczytuje całkiem dobrze.
On nie robi jakichś pomyłek z reguły.
Żadnych krzaczków nie robi.
Na początku były krzaczki, dlatego z tego tytułu,
że ta strona jest, jakby to powiedzieć,
to nie jest tekst tylko, tylko są w stopce każdej strony
tej książki są jakieś takie znaczki,
w których są te wszystkie prawa autorskie i tak dalej, nie?
Te takie znaki typu copyright i tak dalej, nie?
No tak.
On tego po prostu nie zobaczył za dokładnie
albo źle zinterpretował te znaczki.
No ale potem jak przeszedł już do tekstu,
to już było dobrze.
Tak mi się wydaje.
No to się zgadza.
Teraz tak, czy możemy coś z tym zrobić?
Powiedzmy, że mamy tekst, jest to dokument jakiś,
powiedzmy, nie wiem, jakaś recepta, cokolwiek
i już mamy to zeskanowane.
Ekran startowy. Zamknij E4 dolar 5 proc. Zamknij szczegół.
Udostępnij przycisk.
I możemy to udostępnić gdzieś.
Udostępnianie. 2017.
No to tylko WhatsApp, to nie byłby sygnał z tego programu.
E4 dolar 5 proc. FRV S108 kopiuj.
Udostępnianie w pobliżu.
Nie, możemy sobie wybrać grupę lub konkretnego człowieka,
któremu chcemy udostępnić to, co żeśmy zeskanowali,
typu, nie wiem, mam tu receptę, weź mi wykup, nie?
I to już będzie, ale to będzie obrazek czy to będzie tekst?
To będzie tekst.
No, czyli to tak do wysłania komuś tego, no to takiej właśnie recepty
czy czegoś to może niekoniecznie, bo tam są te kody kreskowe.
Nie, nie, nie, nie.
Chodzi o to, że po prostu nie chodzi o samo skanowanie tej recepty, tylko…
Tylko informacje z niej.
Tak, dokładnie. Weź mi to kup, nie?
Na przykład, nie wiem, nawet jeśli jest to lek bez recepty,
a lekarz zapisał na recepcie, no to…
Jasne, jasne, okej.
To można po prostu w ten sposób, nie?
Przesłać, bo nie masz na przykład dostępu w tej chwili do apteki czy coś, nie?
Ekran startowy przycisk szczegóły.
Udostępnij przycisk. Usuń element przycisk.
To możemy teraz usunąć to skanowanie.
E4 dolar 5 procenty. Usuń element przycisk.
E4 dolar 5. Usuń element blokod w trybie dokumenty.
I mamy pusty dokument.
Teraz on mi gada wszystko, bo jest otwarty aparat.
Usuń się. Usuń się.
Także, no nie wiem, co tutaj można jeszcze? Moment.
Ja sobie tak pomyślałem. Mam tutaj takie urządzonko małe,
które do mnie przyszło niedawno.
I też mogę sprawdzić, co to jest.
I patrzymy.
Zamknij szczegóły. Udostępnij. Usuń element.
Temperaturę. Ampersand. Humidity sensor. Temperaturę.
Numidity sensor. Jakiś płynik wykrywania.
Płynik wilgotności. Coś takiego, dokładnie.
Ale tam jest temperaturę.
Tak, ale jest humidity też. Temperatury i wilgotności, zdaje się.
Także zeskanowałem w tej chwili pudełko tego urządzenia,
ale możemy zrobić jeszcze, posunąć się o krok dalej.
Ja wyciągnę to urządzenie z pudełka.
I tu mamy taką małą instrukcję do tego urządzenia.
Ona jest po angielsku wprawdzie,
ale w tym przypadku, kiedy nie do końca obsługiwany jest język polski,
to nawet lepiej.
Ja sobie tą instrukcję tutaj wygładzę,
bo ona jest taka pozginana, żeby się do pudełka zmieściła.
No i dobra.
No to mamy instrukcję.
Okej, czyli to jest jakiś czujnik i tu jest opis, jak masz go skonfigurować.
Ale zauważ, że angielski jest poprawnie.
Nie ma znaczków robaczków.
To prawda.
Wszystko jest zrozumiałe.
Ta instrukcja jest króciutka,
bo to jest na takim niewielkim odznaczka pocztowego paseczku.
I zobacz, ile tekstu się mieści na takim czymś.
I tyle.
No, także zobacz, ten tekst został przeczytany bezbłędnie.
No, to prawda.
A przynajmniej bez jakichś większych błędów.
Nie, no, nie zauważyłem w ogóle błędów.
Na końcu był po prostu kod produktu,
który wyszedł z komputera,
a na końcu był po prostu kod produktu,
który wyszedł z komputera,
ten 750 coś tam.
I tyle.
To wszystko było poprawnie przeczytane z tego paska.
Ten pasek to jest taka harmonijka składająca się z
raz, dwa, trzy, cztery, pięciu elementów.
raz, dwa, trzy, cztery, pięciu elementów.
I te wszystkie pięć elementów zostało przeczytanych bezbłędnie.
Także, no, zróbmy to samo na nVision.
Zobaczymy jak mu pójdzie.
Zobaczymy jak mu pójdzie.
Spróbujmy.
To sobie zamkniemy.
nVisionami.
No to może od razu spróbujemy z dokumentem,
z tą instrukcją malutką
dla porównania.
Wykładzę,
bo ją tutaj złożyłem,
to się znowu pogięła.
W pudełku długo leży to.
Dobrze.
Tutaj masz wybór.
Fajnie.
Dobra, mi tu klawiaturę z komputera czyta.
Widzisz, jest już problem.
Zgadza się.
Dobrze, ale to jest czytanie na bieżąco.
Lookout też miał z tym problem.
Zobaczmy teraz.
No jak nie widać, widać.
Dobrze.
On się tu gubi już.
No i dobra.
No i co mamy?
Już zjada, widzisz?
Zjada wyrazy.
Da się zrozumieć mniej więcej ten tekst,
ale to już jest gorzej.
Tak, to już jest gorzej w porównaniu do tego,
co mieliśmy.
On tu już właśnie nam zjada wyrazy.
Nie czyta tego tak, jak należy.
Więc nie jest to tak,
jak mógł być.
Dobra, zamkniemy sobie.
Ale on chciał to zamknąć.
O właśnie.
Wrócimy do lookouta.
Obrazy są w wersji beta.
I tutaj, no niestety,
nie mam pojęcia,
co się dzieje.
I tutaj, no niestety,
nie mam żadnego obrazku.
Obrazka, ale zaraz spróbujemy coś zrobić.
Może się uda.
Może to weźmiemy sobie.
No i co?
Ok.
Kapelusz, a fikcja.
Nawet nie wiem, co to jest.
Skąd ja to mam?
No dobrze, ale jakiś inny.
Co my tu mamy?
Może ten.
Ja tu widzę jakąś roślinkę.
A ciekawe, co on powie na to.
Udostępnij przycisk.
Usuń element przesłany obraz.
A co szczegóły?
Roślina, drzewo, kwiat?
Nawet mu się udało.
To jest w zasadzie taka palma w doniczce.
Na oko.
No ale dobrze, rozpoznał, że to jest roślina.
Że to jest kwiat, no bo tam ona kwitnie.
Jest poprawnie.
Może jeszcze coś?
Powiedzmy, że…
Co by tu wybrać?
Może to.
Aktualne szczegóły elementu multimedialnego.
Zamknij szczegół, udostępnij.
Usuń element przesłany obraz.
Szczegóły, przestrzeń, zima, zdarzenie.
No, proszę bardzo.
Piękna sprawa.
Jak nie wiemy, co mamy na zdjęciu,
to już wiemy.
I działamy.
Także uważam,
bo tutaj w zasadzie nie ma o czym opowiadać.
To nie ma żadnych tam wymyślnych ustawień
ani żadnych tam rewelacji.
Po tym, co słyszymy,
to uważam, że
Locout jest o wiele lepszy od Vision
pod względem rozpoznawania.
Nie ma w przeciwieństwie do Locoutu oczywiście
otoczenia, bo Locout ma takie coś,
ale z tym jego rozpoznawaniem
otoczeniu to też już mieliśmy okazję się przekonać,
jak Patryk pokazał mu klawiaturę, a on powiedział,
że to zwierzę.
Chyba z taką wielką paszczą.
Tak, to myślę, że nie ma co komentować.
No, w każdym razie
Locout ze zdjęć
bardzo dobrze sobie radzi.
A właśnie,
chociaż teraz ja mam za dużo w galerii rzeczy,
żeby teraz to próbować,
ale można spróbować sobie jakieś zdjęcie zrobić
w otoczeniu własnym
i spróbować to Locoutem rozpoznać potem.
Zobaczyć, co się dzieje.
Ja myślę, że efekt będzie powalający.
Szczerze, żałuję, że właśnie jakoś Google
nie zrobił Locouta
na iOS-a, to znaczy tam
jakaś aplikacja kiedyś, która się nazywała Locout,
to nawet i była, ale to zdaje się jakiś zewnętrzny
deweloper, a to nie było bezpośrednio od Google’a,
mimo tego, że bazowało właśnie na tym silniku.
Ale wiesz, Michale, no,
tak samo jak mógłbym powiedzieć, że żałuję, że
nie wiem, przykładowo, Zuzanki nie ma na Androida, tak?
Ale jest w planach.
W planach, wiesz.
Tak samo jak Envision, tak? Nie, jak Think AI.
Wszystko jest w planach, tylko nie wiadomo,
jak dalekich tych planach.
Nie, no, to zgadzam się z tobą oczywiście.
Wiadomo, że to wszystko to jest kwestia kosztów
i zaangażowania w daną aplikację programistów.
No, Google raczej nie ma
braków w tej kwestii, tak przynajmniej
mi się wydaje.
No właśnie, wydaje mi się, że jednak Android jest o tyle,
nie chcę tutaj jakby
wzbudzać różnych kontrowersji
i polemiki, co jest lepsze, ale
no, Android przez swoją otwartość
jeszcze dużo ma do
wynalezienia, że tak powiem.
Znaczy, wiesz co, z tą otwartością Androida
to jest kwestia bardzo mocno dyskusyjna,
bo ja mam wrażenie, że teraz to mamy, ale to już zresztą niejednokrotnie
o tym mówiliśmy, że iOS się coraz bardziej otwiera,
z kolei Android z takiego rzeczywiście otwartego
systemu coraz bardziej się zamyka
i coraz więcej rzeczy
jest wycinanych, jak chociażby kiedyś można było przecież
nagrywać rozmowy telefoniczne, teraz
zostało to zabrane,
pewne rzeczy są coraz bardziej utrudniane, np. jakieś tam
kwestie związane z tym, z instalacją
aplikacji zewnętrznych, natomiast
to jest wszystko z jednej strony w trosce o dobro użytkownika,
a z drugiej strony oczywiście wiadomo, że są te wszelkiego
rodzaju mody i tym się różni
zasadniczo Android od iOS-a, że możesz
sobie zainstalować takiego Androida zupełnie czystego
bez usług Googla i
wtedy możesz sobie też spokojnie z tego korzystać, no tylko
tak jak rozmawialiśmy kiedyś w jednym Tyflo Przeglądzie,
niestety problem jest wtedy
chociażby z polską mową, bo takie modyfikacje
mają z tym jakieś problemy, żeby np.
użyć tam jakiegoś syntezatora mowy polskiej,
który byłby tak również zupełnie,
zupełnie otwarty, więc to jest dyskusja
na zdecydowanie dłużej,
bo zgadza się, że Android ma
swoje zalety, iOS też ma swoje zalety, jak i każdy
system ma swoje pewne wady,
na szczęście nie jest tak, że jesteśmy
czegokolwiek pozbawieni w iOS-ie,
no bo nie ma, okej, nie ma Google Lookouta,
jest ten CKI, który ostatnio np. doczekał się tej
nawigacji wewnątrz budynku, więc…
To jest dobre, to musi być dobre.
Że Microsoft pracuje jakoś nad tym w sobie.
No ja powiem tak, no to, że w Androidzie
już nie da się nagrywać, to jest
bardzo duży minus,
bo w pewnych sytuacjach,
przynajmniej tutaj, z którymi
ja mam do czynienia obecnie, nagrywanie
bardzo by się przydało, bo nie wszystko
jest w stanie człowiek zapamiętać, co mówi do niego rozmówca
albo nawet, no powiedzmy,
człowiek, który chciałby
uzyskać coś,
co nie jest łatwo uzyskać i potem trudno się
jakby zastanowić nad tym,
ale o czym myśmy rozmawiali w ogóle, nie?
W razie gdyby trzeba było
sobie takie szczegóły przypomnieć.
I tutaj nagrywanie by się bardzo przydało.
Ja zamiast jakby
blokować te nagrywanie, to bym
może wprowadził w Androidzie
takie ostrzeżenie, powiedzmy,
w momencie, kiedy się włącza nagrywanie,
rozmówca dostawałby albo komunikat, albo sygnał.
Że rozmowa jest nagrywana, tak.
A zamiast to blokować, to po prostu
zrobiłbym to w ten sposób.
No, to jest rzeczywiście, myślę, że opcja byłaby przydatna.
Zresztą ja też w iOS-ie z miłą chęcią
przywitałbym taką możliwość rejestrowania
rozmów, chociażby ze względu też na moją pracę.
Czasem fajnie by było do kogoś po prostu zadzwonić
i nagrać z nim na przykład
jakiś materiał do rozmowy
z użyciem telefonu. Oczywiście jest to możliwe, bo to nie jest tak,
że tego się zupełnie nie da zrobić.
Natomiast ja muszę do tego angażować dodatkowy sprzęt,
dodatkowe urządzenie, które mam.
I po prostu nie jest to wszystko takie proste,
jakby proste mogło być. Ale to tak sobie możemy jeszcze
długo, długo rozmawiać, długo dywagować.
Z tego co wiem, to chyba Motorola
albo wczesne Nokia, takie już, gdzie była
możliwość udźwiękowienia ich talkbackiem, miały taką
opcję nagrywania na życzenie
i wtedy człowiek słuchał takiego pikania co minutę,
że to się coś dzieje.
No ja powiem więcej, zdaje się, że teraz Blind Shell,
czyli ten telefon klawiszowy, jak dobrze pamiętam,
to ma możliwość nagrywania.
O, proszę bardzo. Także?
Dzieje się. Dzieje się, dzieje się. Czy coś my jeszcze jesteśmy w stanie,
jeżeli chodzi o Lookout’a, powiedzieć?
Jeśli chodzi o Lookout’a, no to myślę, że jest to wszystko,
dlatego że, no tak jak powiedziałem, jest to bardzo prosty,
bardzo uproszczony program,
który działa na zasadzie sztucznej inteligencji.
No i to wszystko
dzieje się online. Nie mamy internetu,
no to mamy problem, nie? W tym momencie.
A to też o tym warto wiedzieć, że to wszystko jest
przetwarzane gdzieś tam w chmurze,
co niektórzy mogą nie do końca to akceptować.
To też jest inna bajka.
To prawda, no bo powiedzmy, że nie wiemy jak to tak do końca się odbywa.
Co z tymi zdjęciami później się dzieje?
Czy one rzeczywiście są usuwane, czy gdzieś tam są dalej przetwarzane?
Jest taki kanał na YouTubie,
w tej chwili nie pomnę jego nazwy,
ale mam go zasubskrybowanego,
i nie wiem, Ukraińiec, Białorusin,
on ma jakieś takie dziwne coś mówi,
i on pokazuje jak wyłączyć w telefonie
z Androidem różne funkcje.
No i tam na przykład on mówi, jak chcecie, żeby was nie podsłuchiwano,
no to tu wchodzimy, robimy to,
zrobimy tamto i mamy, nie?
No i on tam m.in. pokazywał właśnie jak wyłączyć to,
żeby Google nie rejestrował tego,
co się dzieje na telefonie, żeby nas w ogóle nie podsłuchiwano,
no bo to jest z automatu włączone,
i on tam wszystko opowiada.
To są takie krótkie filmiki trzyminutowe,
ale dość ciekawe i niektórym te jego rady
mogą się przydać. On mówi po polsku,
taką właśnie lwowszczyzną,
ale da się go zrozumieć.
Swoją drogą coraz więcej takich dosyć ciekawych kanałów
właśnie przez takich twórców jest
na polskim YouTubie chociażby ten kanał Smartgasm,
na którym też właśnie taki autor
widać, że pochodzący za naszej wschodniej granicy
dosyć ciekawe rzeczy opowiada,
jakaś tam na temat bomb atomowych,
zamieszkiwanie obcych planet,
co by należało zrobić, jakieś tam swoje przemyślenia
i widać, że ma jakąś dość dużą wiedzę na ten temat.
A jeżeli nie wiedzę w niektórych rzeczach,
no to dosyć logicznie potrafi to wszystko uzasadnić.
No tutaj ten człowiek od telefonów
naprawdę on to tak obrazowo opowiada,
tylko jak chciałem skonfrontować swój telefon
z tym, co on opowiada,
to trzeba brać poprawkę, że on ma telefon
z trochę innym chyba androidem.
To znaczy, chodzi mi o to,
że tłumaczenie jego androida jest inne
i jak on mówi, że coś się tak nazywa,
no to na moim telefonie to z tym miejscu
nazywa się inaczej, ale robi to samo.
To jest uroda androida niestety.
Co wersja i co producent,
to może sobie tam zmieniać i u jednego będzie to wyglądało tak,
u innego inaczej. Wiadomo, że w iOS-ie będzie to
na zdecydowanie mniejszą skalę, bo nie powiem,
że w ogóle to nie występuje, bo w różnych wersjach
iOS-a też to potrafi mieć miejsce
i potrafi też to również w zależności od telefonu
troszeczkę się różnić, bo mają różne telefony,
różne funkcje.
Taki prosty przykład, on powiedział, jak wyłączyć
opcję w androidzie, żeby Google
nie przetwarzał tego, co my mówimy
do asystenta, bo można.
No i u niego się to nazywało jakby
wysyłanie anonimowych
raportów o korzystaniu z
tam, nie wiem, dyktowania głosowego czy coś takiego,
a u mnie to było
nazywane jakoś, nie wiem, wyłącz śledzenie
głosowe czy coś takiego, nie? Po prostu mniej więcej.
To są takie niuanse i różnice, natomiast na szczęście
Lookout chyba w każdym telefonie wygląda
podobnie. Tak, myślę, że tak.
Mam nadzieję, że nie będzie Wam nastręczało
żadnych kłopotów korzystanie z niego.
A jeżeli chodzi o dzisiejszą audycję, no to wygląda na to, że
to tyle, dzwony biją, czas kończyć
zatem. Krzysztof Bruzda prezentował aplikację
Lookout na antenie Tyflo Radia. Dziękuję Ci, Krzysztofie, bardzo.
Dziękuję bardzo, do usłyszenia. Ja również dziękuję
za uwagę, Michał Dziwisz, kłaniam się do usłyszenia do następnego spotkania
na antenie Tyflo Radia.