logo

logo uswps nazwa 3

Cykl tematyczny: Sierpień 2020
Hasło miesiąca: Sztuczna inteligencja

Trudno zaprzeczyć, że zainteresowanie ideą tłumaczenia maszynowego od jakiegoś czasu wyraźnie wzrasta. Większość serwisów społecznościowych oferuje już możliwość automatycznego tłumaczenia wpisów. Strony internetowe coraz częściej korzystają z silników tłumaczenia maszynowego do udostępniania treści w różnych językach. Popularny google translate nie jest już tylko interesującym eksperymentem, na który spoglądamy z przymrużeniem oka. Teraz budzi grozę. Dla wielu jest zapowiedzią rychłego końca zawodu tłumacza. Jednak w rzeczywistości oba poglądy biorą się tylko i wyłącznie z niedostatecznej wiedzy, a jeśli rozwój tej technologii nie zostanie zahamowany, przyniesie znacznie więcej korzyści, niż strat. O technologiach w kontekście pracy tłumacza opowiada filolog anglista Marcin Szwed z Uniwersytetu SWPS.

Tłumaczenie automatyczne – eksperymentalne początki

Zacznijmy od tego, z czym w ogóle mamy do czynienia. Tzw. tłumaczenie maszynowe (ang. machine translation, MT) lub „tłumaczenie automatyczne”, jest dziedziną językoznawstwa komputerowego, czyli nauki zajmującej się takimi zagadnieniami, jak sztuczna inteligencja czy wykorzystanie korpusów językowych. Jest to więc nauka i jako taka opiera się na doświadczeniu i eksperymencie.

Pierwszym doświadczeniem, które – jak twierdzi wielu znawców tematu – zapoczątkowało obserwowany dziś gwałtowny rozwój technologii MT, był eksperyment przeprowadzony w Georgetown 7 stycznia 1954 roku, kiedy to eksperci z firmy IBM, wraz z naukowcami z Georgetown University, z powodzeniem uzyskali przekład ok. 60 zdań z języka rosyjskiego na język angielski za pomocą komputera. Maszyna, która została zaprzęgnięta do tego zadania, posiadała w swojej pamięci tylko 250 słów, a jej składnia robocza obejmowała zaledwie sześć reguł, według których ten skromny zasób słów był wykorzystywany do budowania zdań.

Reguły składni komputera z Georgetown także nie były przesadnie skomplikowane – oto ich pełny zestaw:

szwed tekst ryc1Źródło: W. Hutchins, The Georgetown-IBM experiment demonstrated in January 1954 (www.hutchinsweb.me.uk/AMTA-2004.pdf).

Pomimo tego, że zdania przeznaczone do tłumaczenia w ramach eksperymentu były starannie wyselekcjonowane, a samo tłumaczenie było oparte zasadniczo na podstawianiu jednostek leksykalnych, to eksperyment, o którym „The New York Times” napisał dzień później pod nagłówkiem „Szybki, elektroniczny tłumacz bez trudu przekłada rosyjski na angielski”, spowodował falę zainteresowania tłumaczeniem maszynowym, za którą poszły miliony dolarów na dalsze badania.

Rozwój metod tłumaczenia automatycznego

Nic zatem dziwnego, że od tamtego czasu technologia stojąca za tłumaczeniem automatycznym rozwinęła się w znacznym stopniu. W toku intensywnych badań wypracowano wiele różnych metod tłumaczenia maszynowego, jedną z których jest tzw. technologia tłumaczenia bezpośredniego, której przykładem był właśnie słynny eksperyment z Georgetown.

Oprócz tego znane są tzw. systemy przekładu składniowego oraz, stanowiące w pewnym sensie ich rozwinięcie, systemy powierzchniowego transferu semantycznego, których działanie opiera się na drzewie składników syntaktycznych, według którego algorytm programu podstawia odpowiednie elementy zdania do tekstu przekładu. Program wykorzystuje różne stopnie złożoności drzew syntaktycznych, w tym najprostsze:

szwed tekst ryc2 Źródło: https://linguistics.stackexchange.com/questions/19006/analyzing-negation-with-a-syntactic-tree.

Jak i nieco bardziej skomplikowane:

szwed tekst ryc3Źródło: https://tex.stackexchange.com/questions/111196/how-to-create-syntactic-trees-and-align-them-in-latex.

Oprócz tego istnieją także tzw. międzyjęzykowe systemy tłumaczenia automatycznego wykorzystujące uniwersalny język pośredni (tzw. interlingwa), gdzie tłumaczenie jest dwuetapowe i zaczyna się od przekładu z języka wyjściowego na wspomnianą interlingwę, a kończy na tłumaczeniu z interlingwy na język docelowy. Dalej mamy do czynienia z tzw. tłumaczeniem maszynowym opartym na przykładach, które wykorzystuje wcześniej przetłumaczone i podzielone na mniejsze fragmenty teksty, gdzie tłumaczenie jest tworzone na podstawie aproksymacji i podobieństwa do innych, wcześniej przetłumaczonych tekstów przechowywanych w specjalnej bazie danych. Najbardziej popularny i, jak się wydaje (przynajmniej do niedawna), zdecydowanie najbardziej skuteczny jest system tzw. tłumaczenia statystycznego oparty na modelach statystycznych tworzonych na podstawie analizy korpusu tekstów równoległych w danej parze językowej. System ten wykorzystuje następujący wzór:

szwed tekst ryc4

z którego wynika, że równie istotny, jak przechowywany w programie model języka P(e) jest zbiór danych wejściowych. Słowem, im więcej danych, tym lepsze działanie algorytmu systemu.

Żaden system nie działa jak ludzki mózg

Mechanizm tłumaczenia statystycznego leży u podstaw wspomnianego już, bardzo popularnego, programu google translate, który z tego powodu często nieprecyzyjnie jest określany jako system, który „sam się uczy”. Oczywiście jest to bardzo duże uproszczenie, ponieważ program ten wykonuje operacje statystyczne na wprowadzanym do niego materiale, czyli wykorzystuje zaawansowany rachunek prawdopodobieństwa, przy czym prawdopodobieństwo jest tu wprost proporcjonalne do ilości danych wejściowych (korpus dwujęzyczny). Mówiąc krótko – program niczego się nie „uczy”, chociaż faktycznie z czasem zdaje się działać coraz lepiej.

Warto jednak bardzo wyraźnie zaznaczyć, że żaden z wyżej wymienionych systemów MT nie działa w taki sposób, jak ludzki mózg. Są to jedynie różnego rodzaju zbiory mechanizmów i algorytmów, które w połączeniu ze sobą potrafią, w określonych sytuacjach i w określonym zakresie, doprowadzić do uzyskania zadowalających rezultatów. Na przykład maszynowe tłumaczenie symultaniczne mowy (w dzisiejszych czasach możliwe) to po prostu połączenie algorytmu rozpoznawania głosu z silnikiem tłumaczenia statystycznego (ze wszystkimi ograniczeniami, które niosą za sobą oba te mechanizmy). Oczywiście nie sposób nie wspomnieć w tym miejscu o bardzo głośnych w ostatnim czasie tzw. sztucznych sieciach neuronowych, jednak wydaje się, że przypisywanie im zdolności replikowania procesów zachodzących w mózgu człowieka jest nieco przesadzone i także wynika z nieznajomości zasad ich działania. Natomiast na jakąkolwiek miarodajną ocenę skuteczności silników MT opartych na SSN będziemy musieli jeszcze długo czekać.

Czy komputer zastąpi czy ułatwi pracę tłumaczy?

Wróćmy jednak do najważniejszej kwestii, czyli pytania o to, czy w najbliższej przyszłości są szanse na to, że komputer zastąpi tłumacza. Odpowiedź brzmi: to nie jest właściwe pytanie. Od kiedy zaczęliśmy korzystać z komputerowych edytorów tekstu, wiele zadań tradycyjnie wykonywanych ręcznie zostało scedowanych na naszego elektronicznego pomocnika. Komputer sprawdza za nas pisownię, poprawia formatowanie tekstu, rysuje tabele, umożliwia automatyczne wyszukiwanie, wstawianie i zastępowanie słów. Od kiedy mamy możliwość pracy z nowoczesnymi narzędziami OCR komputer rozpoznaje zeskanowane pismo lub druk i zamienia je na edytowalny tekst elektroniczny. Istnieją więc (i w rzeczy samej od dawna są już bardzo rozpowszechnione) narzędzia umożliwiające rozpoznawanie, a następnie wyszukiwanie i zastępowanie fragmentów tekstu dowolnej długości, jak również narzędzia sprawdzające pisownię i (do pewnego stopnia, chociaż postęp w tej dziedzinie także jest widoczny) gramatykę. W rezultacie przetłumaczenie dokumentu dostarczonego w druku lub w formie kiepskiej jakości skanu zajmuje dziś znacznie mniej czasu niż kilka, lub kilkanaście lat temu. Nie trzeba nikomu wyjaśniać, że bez komputerów i nowoczesnego oprogramowania nie byłoby to możliwe. Nikt też raczej nie zaprzeczy, że konwersja, formatowanie, sprawdzanie pisowni i przeszukiwanie tekstu to zadania, których tłumacze pozbyli się raczej chętnie. Nikt raczej nie chce wrócić do ręcznego przepisywania tekstu czy też mozolnego sprawdzania pisowni każdego pojedynczego słowa, o przeszukiwaniu długich dokumentów w poszukiwaniu wszystkich zastosowań danego terminu (np. w celu jego zastąpienia innym) nie wspominając.

To nie wszystko – pomyślmy o współczesnych narzędziach do tłumaczenia wspomaganego komputerowo. Jeden z podstawowych mechanizmów działania każdego programu CAT, czyli system pamięci tłumaczeniowych, to przecież nic innego, jak tłumaczenie maszynowe oparte na przykładach, o którym mówiliśmy wcześniej. Co więcej, stosowane w tych narzędziach bazy terminologiczne automatycznie podpowiadają nam terminy (tłumaczenie bezpośrednie), a mechanizmy typu „fragment assembly” próbują samodzielnie „składać” zdania na zasadzie przekładu składniowego, który także wymieniliśmy wcześniej jako kolejny z mechanizmów tłumaczenia maszynowego. Gdyby zapytać regularnego użytkownika programu CAT (a trzeba zaznaczyć, że coraz trudniej spotkać kogoś, kto tych narzędzi nie używa w ogóle), czy miałby ochotę przetłumaczyć np. sprawozdanie finansowe w formie tabelarycznej w programie MS Word, odpowiedź z pewnością byłaby przecząca.

W takim razie co się tak naprawdę dzieje? Wygląda na to, że na naszych oczach pisana jest historia zawodu tłumacza. Jesteśmy w stanie ją obserwować, ponieważ technologia rozwija się w niewiarygodnie szybkim (i stale rosnącym) tempie. Tłumacze pracujący w swoim zawodzie od 10 lub więcej lat pamiętają, jak komputery stopniowo przejmowały na siebie coraz więcej zadań. Ale czy zostali przez nie zastąpieni?

Wróćmy na chwilę do eksperymentu w Georgetown. Z perspektywy historycznej możemy dziś z całą pewnością powiedzieć, że euforia, która po nim nastąpiła, była przedwczesna. Czy to samo można stwierdzić teraz? Słowem – czy nadal prawdą jest, że automatyczne tłumaczenie dobrej jakości nadal pozostaje bardziej życzeniem, niż realnym celem do osiągnięcia w najbliższej przyszłości? Odpowiedź brzmi – to zależy. Mówiąc konkretniej – to zależy od tego, co uważamy za „tłumaczenie dobrej jakości”. Jeżeli maszynowy przekład kilkudziesięciu zdań na zasadzie tłumaczenia bezpośredniego, bez żadnej analizy relacyjnej w zakresie składni i z minimalnym zasobem leksykalnym w pamięci można było okrzyknąć tryumfem ówczesnej technologii, działanie dzisiejszych statystycznych silników MT podobnych do google translate z całą pewnością również powinno zostać uznane za sukces. Prawdziwym problemem tutaj nie jest jednak to, czy technologia jest w stanie wykonać swoją pracę, ale jak dobrze ta praca jest faktycznie wykonana i czy spełnia swoją funkcję do danego celu. Czy poprzednie zdanie pasuje do stylu całego artykułu? Zostało przetłumaczone z języka angielskiego najnowszą wersją google translate1. Doskonałym podsumowaniem tego problemu jest słynne retoryczne pytanie, które często pojawia się w kontekście skuteczności tłumaczenia maszynowego: „Is ‘good enough’ good enough?”

Jest na rynku miejsce zarówno na tłumaczenia automatyczne, jaki i na profesjonalne tłumaczenia

Podsumowując – rozwój komputerów i oprogramowania nie zagraża tłumaczom, ponieważ jego celem jest ułatwienie ich pracy. Natomiast tłumaczenie maszynowe to narzędzie, które spełnia określone zadanie i dla którego na pewno znajdzie się miejsce na rynku. Tego typu rozsądną politykę stosuje np. firma Microsoft, która niektóre teksty na swoich stronach internetowych, w tym informacje techniczne, instrukcje obsługi i teksty pomocy tłumaczy na języki obce maszynowo w oparciu na własnym, spersonalizowanym i stale rozwijanym silniku MT, ale np. tłumaczenie tekstów użytkowych, w tym umów, licencji, tekstów o charakterze reklamowym i promocyjnym itd. zleca tłumaczom (agencjom tłumaczeń). Oczywiście możliwe są na tym polu różne błędy i nadużycia. Dla przykładu, Urząd Patentowy RP nie zapewnia anglojęzycznej wersji swojej strony internetowej, zamiast tego stosując na niej tzw. wtyczkę do google translate. Takie działanie można uznać za błąd, ponieważ dostarczenie angielskich odpowiedników specjalistycznych słów i wyrażeń z dziedziny krajowego prawa własności intelektualnej, jak również tłumaczenia tekstów objaśniających różne zagadnienia z tej gałęzi prawa nie powinno być powierzane narzędziom MT, które w oczywisty sposób do tego celu się nie nadają (co, mam nadzieję, jest w tym momencie zupełnie jasne i nie będzie postrzegane jako próba subiektywnej oceny).

Powiedzmy to jeszcze raz: pytanie o to, czy komputer zastąpi tłumacza, jest nieprecyzyjne. Można powiedzieć nawet więcej: to nie jest to pytanie, które powinniśmy sobie teraz zadawać. Właściwe pytanie brzmi tak: skoro komputery coraz bardziej wyręczają tłumaczy, co trzeba zrobić, aby móc z tej pomocy korzystać? Tak naprawdę komputery zaczną zastępować tłumaczy tylko i wyłącznie wtedy, gdy tłumacze będą je ignorować. Z wyjątkiem nielicznych i bardzo specjalistycznych sektorów rynku przekładu (np. tłumaczenie tekstów literackich lub, do pewnego stopnia, akademickich), bardzo trudno jest dziś znaleźć pracę w tym zawodzie bez przynajmniej podstawowej znajomości jednego programu CAT i narzędzia OCR, o umiejętności korzystania z edytora tekstu i arkuszy kalkulacyjnych nie wspominając. Technologia to ekspres, który będzie dalej pędzić naprzód bez względu na to, czy będziemy na jego pokładzie. Postarajmy się więc jak najszybciej o bilet. Najlepiej przy oknie.

 

swed

O autorze

Marcin Szwed – filolog anglista, czynny tłumacz LSP, tłumacz ustny i dydaktyk przekładu, prowadzi warsztaty z zakresu tłumaczenia tekstów specjalistycznych i tłumaczenia konferencyjnego, wykładowca Uniwersytetu SWPS i Uniwersytetu Warszawskiego, tłumacz przysięgły języka angielskiego od 2006 r. specjalizujący się w dziedzinach prawa (w tym prawa UE), techniki budowlanej i farmacji.

 

Przypis

1The real problem here is not, however, whether technology is able to do its job, but how good that job is actually done and if it fulfils its function for the given purpose.

Serial „Manhunt: Unabomber”, dostępny w Polsce na platformie Netflix, to oparta na faktach historia poszukiwania jednego z najsłynniejszych amerykańskich terrorystów ubiegłego wieku. Głównym bohaterem serialu jest James Fitzgerald, postać autentyczna, profiler FBI, który doprowadza do zidentyfikowania terrorysty i jego aresztowania, a to wszystko dzięki stosowanej przez siebie technice „profilowania lingwistycznego”, która stała się częścią intensywnie rozwijanej w USA „lingwistyki kryminalistycznej”. W czwartym z pięciu artykułów poświęconych detektywistycznym aspektom językoznawstwa prof. dr hab. Jadwiga Linde-Usiekniewicz z Uniwersytetu SWPS opowie o znaczeniu profilowania lingwistycznego na długo przed pojawieniem się lingwistyki jako dziedziny nauki.

Profil lingwistyczny, ustalenie autorstwa, „prace niesamodzielne” i plagiaty

Opisany w poprzednim odcinku profil lingwistyczny Unabombera, oparty na listach do gazet i manifeście „Industrial Society and Its Future” pozwolił określić pewne cechy demograficzne autora, ale nie jego tożsamość. Nikt też nie rozpoznał w autorze swojego dawnego studenta. FBI uznało – i tu najprawdopodobniej zasadniczą rolę odegrał James Fitzgerald – iż należy opublikować tekst (czego zresztą Unabomber się domagał) w nadziei, że ktoś rozpozna sposób pisania i styl autora (technicznie mówiąc: jego idiolekt).

Tak się też stało i David Kaczynski rozpoznał w tekście cechy charakterystyczne dla sposobu pisania swojego starszego brata Teda. Dostarczył FBI inne teksty autorstwa Teda Kaczynskiego. Teraz chodziło o wykazanie, że zbieżności nie są przypadkowe i że autorem może być jedna i ta sama osoba. Między tekstami Unabombera a tekstami niewątpliwie autorstwa Teda Kaczyńskiego FBI znalazło 500 lub 600 podobieństw – zarówno ortograficznych, jak i w zakresie użycia pewnych wyrażeń i zwrotów. Grupą agentów i być może agentek FBI, którym powierzono to zadanie, kierował James Fitzgerald.

Zadaniem tej grupy nie było udowodnienie ponad wszelką wątpliwość, iż Kaczynski jest Unabomberem. Chodziło wyłącznie o to, by wykazać, że zachodzi tzw. uzasadnione podejrzenie (ang. probable cause), iż tak jest, i uzyskać nakaz przeszukania chatki Teda Kaczynskiego w Montanie. Nakaz taki w amerykańskim systemie prawnym wystawić może jedynie sędzia, co więcej, na mocy Czwartej Poprawki do Konstytucji nie wolno przeszukać czyjegoś mieszkania bez takiego nakazu. Sędziowie zawsze muszą się zatem liczyć z tym, że o każdej porze dnia i nocy policja albo FBI zwrócą się do nich z odpowiednim wnioskiem.

W filmie sędzia wydaje nakaz, mimo wątpliwości formalno-prawnych, gdyż przypomina sobie wspomniane w trzecim artykule serii o profilowaniu lingwistycznym stosowane przez Amerykanów na Pacyfiku hasła pozwalające odróżnić swoich od Japończyków i sytuację, kiedy sam rozpoznał wroga, który zamiast liberty powiedział riberty. Przeszukanie chatki dostarczyło materialnych dowodów na to, iż Ted Kaczyński to Unabomber. Do procesu nie doszło, gdyż Kaczyński poszedł na ugodę i przyznał się do winy w zamian za to, że prokurator nie żądał kary śmierci a jedynie dożywocia.

W opowiedzianej w filmie historii, tak jak i w jej prawdziwej wersji, nie chodziło o to, by udowodnić na podstawie podobieństwa tekstów, iż Ted Kaczyński to Unabomber, a jedynie by wykazać wysokie prawdopodobieństwo tego faktu. Porównywano też dwa zestawy tekstów: teksty Unabombera i niewątpliwe teksty Kaczyńskiego. Inaczej jest w przypadku, gdy badacze, najczęściej historycy literatury, chcą dowiedzieć się, kto może być autorem konkretnego tekstu.

Jednym z pierwszych badaczy, stosujących metody ilościowe do badań filologicznych, był Wincenty Lutosławski, twórca terminu stylometria jako nazwy tej metody czy też dziedziny badań. Zakłada się w nich między innymi, że istnieje coś takiego jak „stylistyczny odcisk palca” – pewne cechy stylu autorskiego, niekontrolowane przez samego autora i pozwalające z dużym prawdopodobieństwem ustalić na przykład, kim naprawdę jest nowy, nieznany autor, zwłaszcza jeżeli zachodzi podejrzenie, że nie jest to debiutant lub debiutantka, kto ze znanych autorów może kryć się za pseudonimem.

Badania takie mają wielowiekową tradycję, ale już pod koniec XIX wieku pojawiły się metody nowe, oparte na pewnych własnościach tekstów dających się policzyć1. Jednym z pierwszych badaczy, stosujących metody ilościowe do badań filologicznych, był Wincenty Lutosławski, twórca terminu stylometria jako nazwy tej metody czy też dziedziny badań2. Zakłada się w niej między innymi, że istnieje coś takiego jak „stylistyczny odcisk palca” – pewne cechy stylu autorskiego, niekontrolowane przez samego autora i pozwalające z dużym prawdopodobieństwem ustalić na przykład, kim naprawdę jest nowy, nieznany autor, a jeżeli zachodzi podejrzenie, że nie jest to debiutant lub debiutantka, kto ze znanych autorów może kryć się za pseudonimem. W ostatnich czasach w ten sposób usiłowano ustalić, kim jest Robert Galbraith, autor powieści „Wołanie kukułki” – okazało się, że jest nim J. J. Rowling, autorka cyklu o Harrym Potterze. Inną tajemniczą postacią jest Elena Ferrante – być może za tym pseudonimem kryje się włoski pisarz Domenico Starnone, być może tłumaczka Anita Raja, a być może oboje3.

Metody stylometryczne obejmują porównywanie częstości słów najczęściej występujących, niezależnie od ich charakteru, tj. należących do wszystkich części mowy, albo tylko tzw. wyrazów funkcyjnych, czyli przyimków, spójników, zaimków, a w języku angielskim, francuskim czy niemieckim także rodzajników. I tak wyrazy funkcyjne mają w tekstach stosunkowo wysoką frekwencję, zwykle wyższą niż słowa pełnoznaczne. Czasami bada się także frekwencję nie pojedynczych słów, ale ich połączeń: par wyrazów, trójek wyrazów, itd. Można też badać analogiczne sekwencje literowe.

„Stylometryczny odcisk palca” pozwala postawić hipotezy na temat autorstwa z dużym prawdopodobieństwem. Wymaga jednak odpowiednio dużej próbki tekstu i nie jest tak jednoznacznym dowodem, jak prawdziwy odcisk palca, wzór siatkówki czy DNA.

Czasami jednak nie potrzeba tak wyszukanych narzędzi. Wynikiem intuicyjnie przeprowadzonej analizy stylometrycznej jest na przykład zarzut nauczyciela, że przygotowana w domu praca jest „niesamodzielna” – najczęściej pojawia się w niej zbyt erudycyjne słownictwo, zbyt wyszukana składnia, a być może i treść jest zbyt erudycyjna…. Wszystko to odstaje od stylu prac klasowych. Na podobnej zasadzie – tekst zbyt poprawny, zbyt staranny, zbyt erudycyjny w porównaniu z wcześniejszymi pracami autora może zostać wstępnie uznany za plagiat.

W następnym odcinku:

  • Co wspólnego ma praojczyzna Słowian z poszukiwaniem Unabombera?

 

someone

O autorce

prof. dr hab. Jadwiga Linde-Usiekniewicz – kierownik Katedry Iberystyki, Wydziału Kulturoznawstwa i Filologii SWPS. Iberysta, językoznawca, specjalista w zakresie semantyki i pragmatyki kontrastywnej, struktur informacyjnych oraz relacji między semantyką, składnią a pragmatyką.

Przypisy

1 M. Eder. “Style-Markers in Authorship Attribution A Cross-Language Study of the Authorial Fingerprint”, Studies in Polish Linguistics 2011, 6, str. 100.
2 Tamże.
http://biqdata.wyborcza.pl/biqdata/7,159116,22829674,jak-rozpracowano-elene-ferrante-slowo-po-slowie.html

W jednym z odcinków słynnych „Przyjaciół” Chandler Bing, aby uwolnić się od nałogu tytoniowego, w trakcie snu odsłuchuje nagranie motywacyjne, które zaczyna się od wezwania: „Jesteś silną, pewną siebie kobietą…”. Pomijając fakt płci i cały komizm sytuacyjny, mantra przynosi pozytywny rezultat: w kolejnych odsłonach serialu nie widzimy już więcej bohatera z papierosem. Powiedzieć, że język ma wielką moc, to powiedzieć za mało. Kreuje rzeczywistość niemal na każdym poziomie życia i nie tylko kognitywiści wiedzą coś na ten temat. Ale czy faktycznie jego działanie potrafi być afirmatywne? I czy w związku z tym korzystanie z tego najsłynniejszego narzędzia komunikacji może wpłynąć na nasz rozwój? Przeanalizujmy temat, odwołując się do współczesnej parenezy autorstwa internetów. Komentarza udzieli kulturoznawca, dr Karol Jachymek z Uniwersytetu SWPS.

Bądź jak Chandler Bing

Żyjemy w czasach, gdy do rzadkości należy komfort samoakceptacji. Aby nadać większy sens własnemu jestestwu, niejednokrotnie stosujemy narracje zaganianych pracowników korporacji. Wszyscy jesteśmy tak strasznie zajęci, że OMG. Uczestniczymy w wielkich asapowych projektach marketingowych o globalnym zasięgu, jesteśmy asystentami odnalezionej niedawno na Antarktydzie córki Chucka Norrisa, która robi szpagat oczami, w piwnicy u rodziców tworzymy perpetuum mobile, o którym nawet filozofom się nie śniło, a w międzyczasie odkrywamy nowy pierwiastek, który zastąpi wszystkie pozostałe (poza polonem i radem, bo te są polskie i nietykalne). Ale żeby nie było: to i tak za mało! Kult rozwoju zapanował na dobre i nawet w zabawnej formule memów z cyklu „Bądź jak...” np. Kasia, Zosia, Beata1, stanowi podprogowy przekaz: masz być kimś, kim nie jesteś, lub: masz być bardziej sobą, niż jesteś, w każdym razie na pewno nie tym, kim jesteś aktualnie. Przez to twój status ontologiczny jest ciągle w ciekłym stanie skupienia, możesz iść drogą ostentacyjnej afirmacji (czyli jestem bardziej sobą, niż jestem) lub ustawicznego wdrażania zmian, które sygnalizują – pozornie lub nie – rozwój (czyli kimś, kim nie jesteś, choć usilnie starasz się być). Ale zostawmy to mędrkowanie, bo naprawdę…

Weź nie mędrkuj, weź się w garść! vs. Buka

Słynne „weź….”, np. „weź się w garść” lub „weź nie gadaj” to ulubiony zwrot rodziców, którzy zapomnieli, że dramaty ich dzieci rozgrywane w czterech ścianach mają wymiar egzystencjalny i nie są wyłącznie fanaberią związaną z brakiem życiowego doświadczenia. Powiedzieć np. osobie cierpiącej na depresję „weź się w garść” to największa ignorancja ever, a ze strony bliskiej osoby – nadprogramowy policzek. I choć byśmy zrobili sobie całonocne zapętlenie reklam z gatunku „jesteś tego warta” czy „#MojePięknoMojaHistoria”, albo przejrzeli wszystkie memy z rzeczonego cyklu „weź…”, to i tak siła języka nie przełoży się w pełni na życie w realu. Zdecydowanie łatwiej, gdy ci smutno, gdy ci źle, sięgnąć po nihilistyczną Bukę, która radzi, że „jeśli czegoś nie wolno, a bardzo się chce, to można” lub zaklina rzeczywistość: „Jestem bardzo skromna, dlatego ukrywam swój płaski brzuch pod warstwą tłuszczu”. Buka ma charakter, wie, czego do szczęścia jej brakuje, a jej potrzeby są proste: chce się nażreć i zamanifestować swój tumiwisizm. Lubimy Bukę, bo jest bliska naszemu sercu, ale dążymy do Ewy Chodakowskiej i klikamy w jej metamorfozy, chociaż niestety ten rodzaj aktywności nie pomaga nam spalić kalorii. Dzieje się tak, bo w normie mieści się wymaganie od siebie więcej, a sam rozwój w sobie zawiera obietnicę lepszego życia. Wiadomo – optymistom jest łatwiej.

Szklanka do połowy pełna

Często powtarzane: „Od jutra będę kimś innym”, „Chcę być najlepszą wersją samego siebie”, „W 2019 roku wyjdę za mąż” nie zawsze działa. Optymista Ci powie, że masz potencjał, pesymista „daj spokój, zapomnij”, a całość starań najlepiej zweryfikuje #10yearschellenge. To rzeczywiście kwestia osobowości – jedni po tych 10 latach od prototypu zmieniają się o 180 stopni na plus, drudzy też się zmieniają, ale nie do końca tak, jakby sobie życzyli. Wiele zależy od motywacji i tu kłania się całe morze potu i sterta książek o charakterze coachingowym. Te książki nie tylko dotyczą Twojego wyglądu, ale też nastawienia do rzeczywistości, zaangażowania, które jesteś w stanie z siebie wygenerować i ostatecznie też… języka, jakiego używasz na co dzień, opisując siebie w rozmaitych kontekstach: pracy, szkoły, rodziny, przyjaźni. Możesz o sobie powiedzieć: „jestem silną, pewną siebie kobietą” lub możesz stwierdzić: „wiele rzeczy mi wyszło, jeszcze więcej nie, ale w sumie najgorzej nie jest”, albo jeszcze inaczej: „Jestem gruby, brzydki i wszystko jest nie tak”. Dobrze oddają to memy z cyklu „Kim jesteśmy”, np. „kim jesteśmy? Studentami! Czego chcemy? Zaliczenia sesji! Co robimy, żeby to osiągnąć? Sprzątamy!” lub „Kim jesteśmy? Grubasami! Czego chcemy? Iść na siłownię! Kiedy? Jutro!”3 itp.

Nie wszystko to ciało

Wiele spośród powyższych internetowych tworów kręcą się wokół ciała i cielesności. Zacytujmy: taki mamy klimat. Współczesne memy, od Buki po memy Marty Frej, chcąc nie chcąc, eksploatują temat fizyczności, z jednej strony negując jej ważność, z drugiej zaś – niechcący podkreślając jej znaczenie. Na szczęście poza tymi cielesnymi, istnieje wiele w memosferze takich, które śmieją się ze współczesnych mód, zawodów, postaw. Weźmy na przykład mem, który ostatnio dość mocno widać w mediach społecznościowych, a który każe pośmiać się z panującego trendu zdobywania tytułu doktora: „(ona, pochylając się nad starszym mężczyzną) Doktora! (młody pan z teczką) Ja jestem doktorem! (ona) On ma zawał! (młody z teczką) Jestem doktorem polonistyki! (ona) On umiera! (młody z teczką) Mamento mori…”4 Memy podchwytują to, co jest aktualne i na czasie, to, co jest warte szydery, ale też głębszej refleksji nad konkretnym zjawiskiem. Skrywany w nich przekaz jest emanacją naszych pragnień, diagnozują nasze tęsknoty, jednocześnie mówią, jakie przyjąć stanowisko. Ostatecznie nie tylko język może wpłynąć na samorozwój, czy rozwój wydarzeń, a nawet rozwój fizyczno-umysłowy. Jest wiele czynników, które na rozwój wpływają. Na przykład deklinacja…

Komentarz dr. Karola Jachymka

Otacza nas kultura coachingu, zwykle mówimy o zmianie w pozytywnym kierunku, rozwój w dół jest rodzajem oksymoronu. Zdecydowanie rzadziej epatujemy, czy to na forum, czy to w mediach społecznościowych, negatywnym przekazem. Przez to w pewnym sensie wszyscy funkcjonujemy w bańkach, a Facebook i Instagram, które zasadniczo bliskie są wielu sercom, mają na celu ich utrwalanie i dorabianie nam gęby, oczywiście powstałej na skutek naszych autokreacji. Memy dystansują nas w pewnym sensie od takich górnolotnych zabiegów wokół siebie. Ich żywot jest krótkotrwały, działają tu i teraz, obnażają pewne dyskursy i pozwalają się zwentylować. Chociaż ich żywot jest krótkotrwały, są często opiniotwórcze. Co więcej, każdy z nas jest w stanie zostać autorem mema i oddolnie stworzyć komunikat, który może, choć nie musi, wpłynąć na adresata.

 

258 karol jachymek

O komentatorze

dr Karol Jachymek – doktor kulturoznawstwa, filmoznawca. Zajmuje się społeczną i kulturową historią kina (zwłaszcza polskiego) i codzienności, metodologią historii, zagadnieniem filmu i innych przekazów (audio)wizualnych jako świadectw historycznych, problematyką ciała, płci i seksualności, wpływem mediów na pamięć indywidualną i zbiorową, społeczno-kulturowymi kontekstami mediów społecznościowych oraz blogo- i vlogosfery, a także wszelkimi przejawami kultury popularnej. Współpracuje m.in. z Filmoteką Szkolną, Nowymi Horyzontami Edukacji Filmowej, Against Gravity, KinoSzkołą i Filmoteką Narodową – Instytutem Audiowizualnym. Prowadzi warsztaty i szkolenia dla młodzieży i dorosłych z zakresu edukacji filmowej, medialnej i (pop)kulturowej oraz myślenia projektowego i tworzenia innowacji społecznych. Autor książki „Film – ciało – historia. Kino polskie lat sześćdziesiątych”.

Przypisy

Żródło: https://besty.pl/3733758
Źródło: http://www.demotywatoy.pl/6691/jesli_czegos_nie_wolno_a_bardzo_sie_chce_to_mozna_buka.html
3 Źródło: http://www.demotywatoy.pl/6691/jesli_czegos_nie_wolno_a_bardzo_sie_chce_to_mozna_buka.html
4 Źródlo: https://memy.pl/mem/177805/Doktora

Tekst: Marta Nizio z Redakcji Uniwersytetu SWPS

 Serial „Manhunt: Unabomber”, dostępny w Polsce na platformie Netflix, to oparta na faktach historia poszukiwania jednego z najsłynniejszych amerykańskich terrorystów ubiegłego wieku. Głównym bohaterem serialu jest James Fitzgerald, postać autentyczna, profiler FBI, który doprowadza do zidentyfikowania terrorysty i jego aresztowania, a to wszystko dzięki stosowanej przez siebie technice „profilowania lingwistycznego”, która stała się częścią intensywnie rozwijanej w USA „lingwistyki kryminalistycznej”. W piątym i ostatnim artykule poświęconym detektywistycznym aspektom językoznawstwa prof. dr hab. Jadwiga Linde-Usiekniewicz z Uniwersytetu SWPS opowie o tym, co wspólnego może mieć praojczyzna Słowian z poszukiwaniem Unabombera.

Praojczyzna Słowian a poszukiwanie Unabombera

W trzecim odcinku serialu „Manhunt: Unabomber” Natalie Shilling inspiruje Jamesa Fitzgeralda do doprecyzowania domniemanego wizerunku poszukiwanego terrorysty w jeszcze jeden sposób. Nad talerzem przekąsek wspomina o próbach ustalania tzw. praojczyzny Słowian i mówi, że ustalono to na podstawie języka. W przedstawionej przez nią hipotezie (skądinąd jednej z wielu, o czym niżej) punktem wyjścia jest stwierdzenie, że w języku prasłowiańskim nie było nazw pewnych rodzajów drzew i języki słowiańskie nazwy te zapożyczyły. Na tej podstawie, w omawianej tu hipotezie, wnioskuje się, iż Słowianie muszą wywodzić się z miejsca, w którym tych drzew po prostu nie było. Regionem takim jest właśnie dolina Prypeci i tam umieszcza się praojczyznę Słowian.

Ten lingwistyczny żart ma pokazywać Fitzgeraldowi, że możliwe jest nie tylko wnioskowanie z obecności pewnych słów i zwrotów w tekstach (była o tym mowa we wpisie na temat profilu lingwistycznego Unabombera), ale także z tego, czego w tych tekstach nie ma. W następnej scenie widzimy profilera zastanawiającego się, o czym Kaczynski nie pisze. Nie pisze np. o rodzinie i Fitzgerald wnioskuje, iż musi być osobą samotną, co zresztą okazuje się prawdą. Nie prowadzi jednak do zawężenia zakresu poszukiwań, więc na pierwszy rzut oka odpowiedź na tytułowe pytanie brzmi: tak naprawdę to nic.

Nie jest to jednak do końca prawda. Pewne metody ustalania praojczyzny Słowian, podobnie zresztą jak ustalenia praojczyzny Indoeuropejczyków, pod pewnym względem przypominają profilowanie kryminalne, ale nie profilowanie lingwistyczne, a profilowanie behawioralne, które – jak pamiętamy – prowadziło na manowce.

Pewne metody ustalania praojczyzny Słowian, podobnie zresztą jak ustalenia praojczyzny Indoeuropejczyków, pod pewnym względem przypominają profilowanie kryminalne, ale nie profilowanie lingwistyczne, a profilowanie behawioralne, które – jak pamiętamy – prowadziło na manowce.

Skąd znamy język prasłowiański i język praindoeuropejski?1

W językoznawstwie wyodrębnia się tzw. języki żywe i języki martwe. Pierwsze z nich to takie, które są używane jako pierwsze w jakiejś społeczności współczesnej obserwatorowi. Natomiast języki martwe to języki dawniej żywe, a obecnie znane tylko specjalistom. Specjaliści znają niektóre języki martwe, bo nigdy nie zanikła tradycja uczenia ich. Tak jest w przypadku tzw. języków klasycznych (łaciny, greki klasycznej) i innych języków, w których powstały ważne teksty, których znajomość była wymagana, np. ze względów religijnych i przetrwała do dziś. Tu wymienić można aramejski, klasyczny hebrajski, sanskryt, czy staro-cerkiewno-słowiański. Inne języki dziś martwe nie miały takiego szczęścia. Przez pewien czas, zwykle setki, a nawet tysiące lat, nikt ich nie używał i nikt ich nie znał. W ich wypadku szczęście polegało na tym, że użytkownicy tych języków stosowali pismo, a teksty zapisane w trwałym materiale udało się odczytać. Tak stało się w wypadku języków starożytnego Wschodu.

Język prasłowiański i język praindoeuropejski oczywiście nie należą do żadnej z wymienionych wyżej grup. Są to tzw. języki zrekonstruowane – odtworzone przez lingwistów. Szczęście tych języków polegało na tym, że na poziomie faktów przekształciły się w tak zwane języki potomne a na poziomie wiedzy badaczom udało się ustalić, że tak właśnie było. Udowodnili, że pewne języki są ze sobą spokrewnione, czyli wywodzą się od wspólnego przodka – prajęzyka. Prasłowiański jest zatem przodkiem języków słowiańskich, a praindoeuropejski – przodkiem tzw. języków indoeuropejskich. Co więcej, na podstawie języków potomnych udało się w wielu wypadkach ustalić, jak najprawdopodobniej ten przodek wyglądał. W ogromnym uproszczeniu rozumuje się tak: formy (wyrazy, morfemy gramatyczne, głoski) odpowiadające sobie w językach potomnych najprawdopodobniej pochodzą od form występujących w prajęzyku i na podstawie owych form pochodnych można odtworzyć formę wyjściową.

Poszukiwanie praojczyzny Słowian na podstawie braku

Co zatem oznacza domniemany brak w prasłowiańskim nazw pewnych drzew? Otóż jedynie to, że nie udało ich zrekonstruować jako „czysto słowiańskich”2 w sposób niekwestionowany przez innych badaczy.

Przez formy czysto słowiańskie rozumieć należy formy, które nie tylko są zgodne z formami znanymi z języków słowiańskich, ale które także dadzą się regularnie wyprowadzić z języka praindoeuropejskiego – wspólnego przodka języków indoeuropejskich – a właściwie z jego rekonstrukcji, na podstawie języków potomnych (między innymi greki klasycznej, sanskrytu, języków anatolijskich, łaciny, języków celtyckich itd.). Według niektórych badaczy zrekonstruowane prasłowiańskie nazwy niektórych drzew nie mogą wywodzić się bezpośrednio z praindoeuropejskiego, lecz ukształtowały się pod wpływem języków germańskich3.

Dlaczego istnienie w prajęzyku rdzennych nazw na jakieś rzeczy (rośliny, formy terenu, zwierzęta, sprzęty itd.) ma być dowodem na to, że – w wypadku dzikich zwierząt, roślin i form terenu – użytkownicy prajęzyka musieli przed jego rozpadem mieszkać na terenach, na których te rzeczy występują? I przeciwnie, dlaczego brak takich nazw ma świadczyć o tym, iż użytkownicy prajęzyka wywodzą się z terenów, na których ich nie było? 

Po pierwsze twierdzi się, że społeczność posługująca się danym językiem będzie miała nazwy na to, co ich otacza, oraz nazwy na artefakty, którymi się posługuje. Mamy na to liczne potwierdzenia z wielu języków i wielu kultur. A zatem ponieważ dla praindoeuropejskiego mamy np. zrekonstruowane nazwy między innymi dla wołu i jarzma, możemy twierdzić, że Praindoeuropejczycy hodowali zwierzęta i uprawiali ziemię.

Po drugie, twierdzi się, że zapożycza się zwykle nazwy na to, co nowe. Tak rozumiane „nowe” może dotyczyć np. ukształtowania świeżo zasiedlonego terenu. W bardzo wielu językach to właśnie toponimy (nazwy własne odnoszące się do miejsc) są zapożyczane z języka wcześniej używanego na tych terenach (niezależnie od tego, czy przybysze wypędzili lub, wymordowali dawnych mieszkańców, czy też dotychczasowi mieszkańcy mniej lub bardziej pokojowo przejęli język przybyszów). Do toponimów zalicza się także hydronimy, czyli nazwy własne zbiorników wodnych. Inną grupą wyrazów często zapożyczanych jako nazwy na to, co nowe, są rzeczowniki pospolite odnoszące się do ukształtowania terenu. We wcześniejszym wpisie była mowa o tym, że Kaczynski posłużył się pochodzącym z hiszpańskiego i używanym w Kalifornii słowem sierra, ale nie używał słowa mesa.

W podobny sposób zapożycza się nazwy wcześniej nieznanych zwierząt i roślin. Skoro tak, to jeżeli Prasłowianie nie mieli własnych nazw na pewne drzewa, to musieli wywodzić się z rejonów, w których takie drzewa nie występują. I takim pozbawionym odpowiednich drzew miejscem jawiła się dolina Prypeci. Sprawa nie jest jednak tak oczywista, bo tych drzew musiało tam nie być w czasie, gdy Prasłowianie tam mieli mieszkać – tymczasem pewne badania archeologiczne wskazują na to, że zasięg występowania pewnych drzew w czasach domniemanej praojczyzny Słowian mógł być inny niż obecnie4.

Dlaczego metoda ta przypomina pod pewnym względem profilowanie behawioralne? Dlatego, że w obu wypadkach wnioskuje się na podobnej zasadzie: zakłada się, że to, co częste w potencjalnie podobnych pewnych przypadkach, najprawdopodobniej zachodzi i w tym przypadku.

Inne hipotezy

Przywołana przez Natalie Shilling hipoteza nie jest oczywiście jedyną. Część hipotez opiera się na danych językowych, inne na danych archeologicznych oraz historycznych. Ostatnio włączono w analizy także badania genetyczne. Brak miejsca nie pozwala na ich omówienie. Zainteresowanych odsyłam do rzetelnie opracowanego artykułu w Wikipedii5 oraz do cytowanego tu tekstu Karoliny Borowiec, stanowiącego bardzo wnikliwe i kompletne omówienie stanu badań6.

Wspomnę tylko, że czasami dyskusja nad praojczyzną Słowian przypomina wspomniany już serialowy spór akademików o wyższości dyscyplin humanistycznych nad ścisłymi lub odwrotnie . Jak pisze Karolina Borowiec, „[b]adacze wydają się znacznie bardziej skupieni na personalnych urazach niż na kwestiach merytorycznych”7, a „w tekstach naukowych znaleźć można wiele niemerytorycznych bądź pseudomerytorycznych uwag pod adresem przeciwników”8.

Jak pamiętamy z filmu, w wypadku Unabombera profilowanie behawioralne niewiele dało. Zdaniem niektórych badaczy, podobnie nieskuteczne są próby ustalenia praojczyzny Słowian na podstawie analizowanych danych językowych. Jak pisze Hanna Popowska-Taborska:

[...] nie jesteśmy w stanie w sposób jednoznaczny określić lokalizacji siedzib słowiańskich ani w świetle danych hydronimicznych, ani w świetle domniemanych słowiańskich etnonimów, ani w świetle terminologii botanicznej i zoologicznej, ani opierając się na współczesnych podziałach leksykalnych9.

Może i ta dziedzina potrzebuje swojego Jamesa Fitzgeralda albo Rogera Shuya…

 

 

someone

O autorce

prof. dr hab. Jadwiga Linde-Usiekniewicz – kierownik Katedry Iberystyki, Wydziału Kulturoznawstwa i Filologii SWPS. Iberysta, językoznawca, specjalista w zakresie semantyki i pragmatyki kontrastywnej, struktur informacyjnych oraz relacji między semantyką, składnią a pragmatyką.

Przypisy

1 Ten podrozdział w całości jest parafrazą tekstu z książki A. Weinsberga, Językoznawstwo ogólne, Warszawa 1983, str. 7-8.
2 K. Borowiec, „Kanon wiedzy na temat tzw. etnogenezy Słowian. Czas przełomu”, Kwartalnik Językoznawczy 2012, 1, str. 16.
3 Tamże, str. 20
4 A. Kępińska, informacja ustna.
5 https://pl.wikipedia.org/wiki/S%C5%82owianie
6 Tekst jest dostępny pod adresem: https://repozytorium.amu.edu.pl/bitstream/10593/12834/1/Karolina%20Borowiec_Kanon%20wiedzy_KJ2012_1.pdf
7 K. Borowiec, dz. cyt., str. 20.
8 Tamże, str. 21.
9 H. Popowska-Taborska, Wczesne dzieje Słowian w świetle ich języka, Wrocław 1991, s. 146. (cytuję za Karoliną Borowiec, dz. cyt.).

TikTok – dla jednych odkrycie ostatnich lat, dla innych dowód na to, że ludzkość skręciła w złą stronę. Choć roczniki pamiętające jeszcze gumy turbo z niechęcią patrzą na tę aplikację, jedno jest pewne – ci, którzy dadzą jej szansę, szybko przepadają i godzinami oglądają kilkusekundowe filmiki. Jak to się stało, że TikTok tak szybko zdobył ogromną popularność? Dlaczego rozkochali się w nim nie tylko młodzi ludzie, ale również specjaliści od marketingu? Czy pomimo takiego sukcesu, czeka go (jakakolwiek) przyszłość? Jaki wpływ na aplikację mają ostatnie problemy związane z gromadzeniem danych? Czy rzeczywiście możemy spodziewać się całkowitej delegalizacji i upadku TikToka?

O tym wszystkim rozmawiają Jakub Biel – specjalista od nieszablonowych reklam, oraz Małgorzata Zmaczyńska – autorka podcastu Zmacznego.

  • https://podcasts.apple.com/pl/podcast/tiktok-wsp%C3%B3%C5%82czesny-fenomen-czy-chwilowa-moda-jakub/id1486199502?i=1000487298913
  • https://open.spotify.com/episode/6W1VzLmB6J8wbCUt30q8Bu
  • https://lectonapp.com/pl/audiobook/a8f70a6c-d00a-401e-a4bd-98e5645513f0?_lst

 

258 Jakub Biel

Jakub Biel
gość

Specjalista od nieszablonowych reklam. Od kilku lat odpowiada za PR i komunikację w x-kom, dla którego przeprowadził kampanie na PornHubie, Tinderze, a nawet w Telegazecie. Po udanym wprowadzeniu marki na TikToka (ponad 2,5 mln polubień) wydał kurs TikTok od podstaw.

 

258 Małgorzata Zmaczyńska

Małgorzata Zmaczyńska
prowadząca

Jej supermocą jest mówienie. Nagrywała podcasty, zanim to było modne – Podcast RADIOaktywny oraz Zmacznego. Redaktor naczelna „SHEro” – magazynu pisanego przez dziewczyny i przede wszystkim dla dziewczyn. Kręci ją motoryzacja, nieznane historie związane z jedzeniem, psychologia i przekręty na Wall Street.

 

kanały

zobacz też

strefa psyche strefa designu strefa zarzadzania strefa prawa logo
Zapraszamy na webinar „M jak miłość” czy „Klan”? Fenomen polskich tasiemców”