A więc jestem na Festiwalu WUD Silesia 2024 „Miasto Wiedzy”. WUD, czyli interdyscyplinarny miks Wiedzy, Umiejętności i Doświadczeń. Chcę posłuchać głosów różnych stron na temat AI, bo ten temat stanowi myśl przewodnią finału tygodniowych spotkań i warsztatów. Po wstępnym zaciekawieniu, wychodzę w połowie. Przelewa się we mnie.
"Can't help myself",Sun Yuan y Peng Yu |
Zacznijmy jednak od początku. Keynote wygłosił sceptyk, dr hab. Michał Krzykawski. Rozpoczęcie od stwierdzenia, że współcześnie funkcjonujemy w efekcie rozproszenia uwagi i dlatego ulegamy hipnozie technologicznej, nie zainicjowało kierunku rozważań, a wprowadziło niepokój (słusznie), gdyż panelista nieustannie w dalszej części wykładu skupiał się na zależności między cywilizacyjnym regresem, a wpływem techniki i technologii, które, wyłączone niemalże poza obręb zainteresowania filozofii i etyki, funkcjonują w swoistej szarej strefie i tym samym, jak wszystko poza widnokręgiem obserwacji i oceniania, rozwijają mechanizmy, które niepostrzeżenie zaczynają gnieździć się w codzienności. Jednak z jakim skutkiem?
Artefakty wytwarzania wiedzy opisał współczesny filozof Bernard Stigler; parafrazując wypowiedź Heideggera "Co zwie się myśleniem", wykazał, co stanowić powinno również podmiot namysłu, co jest nadrzędną metodą działania techniki: "Co zwie się opatrywać myślą"? Mnie szczególnie interesuje słowo "opatrywać" w niniejszym zdaniu. Jest to słowo oznaczające nie tylko nadawanie znaczenia, ale również zakreślanie ram znaczeniowych. To, co jest określanie, "signifiant", powiedziałby de Saussure. I pytanie ważniejsze: czy to, co fascynujące dla językoznawców, czyli dynamiczność obrazu/ów akustycznego znaku (np. powstawanie nowych słów, poszerzanie reprezentacji słowa, neologizmy, świadczące o niezmiennym potencjale ludzkiej kreatywności i niezmierzonej możliwości postrzegania świata), będzie możliwe dla zasobu operacji LLM w trakcie korzystania zeń oraz (a szczególnie właśnie!) PO erze Gen AI w potencjale jego użytkowników - ludzi?
Wspólnie z panielistą zastanowiłam się nad relacją techniki i bytu. Czy jest to ludzka pogoń za życiem przy pomocy środków innych niż życie? Czy może jest to nietypowa zależność podobna do bliźniaczych relacji Hypnosa urodzonego przy źródłach Lete i jego brata Tanatos - technologia nie śpi, a my usypiamy? Innym źródłem paraleli i filozoficznego namysłu jest mityczne działanie antyludzkiego Epimeteusza, który - zazdrosny o potencjał i kreację własnego brata - rozdzielił swe tytaniczne zdolności naturze, czyniąc ją wrogą i niebezpieczną, co zmusiło Prometeusza do poszukiwania sposobów wzmocnienia rodzaju ludzkiego, w rezultacie do kradzieży ognia. Episteme (wiedza teoretyczna), będąca od czasów mitycznych w sporze z techne, pozwala współcześnie zadawać pytania: na ile wytwór wiedzy stanowi urzeczywistnienie założeń teoretycznych, a na ile, z powodu wielu czynników nieprzewidzianych, jej się wymyka i staje wrogiem użytkownika/twórcy? A jeśli w planach jest wyłącznie zapanowanie nad wolną wolą, tak przecież częste w historii gatunku ludzkiego?
Przekonania Jana Hartmana, wieszczącego w swej książce zmierzch filozofii, jak również Jacka Dukaja, idącego dalej - oznajmiającego koniec ludzkości, zdają się odchodzić od przeświadczenia, że technikę należy traktować jako pośrednictwo ludzi z naturą, mimo to nie trafiają, moim zdaniem, w sedno: na czym polega i na podstawie jakich danych wprowadzających odbywa się technika głębokiego uczenia AI oraz - ważniejsze dla mnie - jaki jest cel długofalowy tego uczenia (się)?
Jestem zgodna z Krzykawskim, że uznawanie AI wyłącznie za narzędzie to naiwność, a myślący w ten sposób, to "pożyteczni idioci doliny krzemowej". Nasze myśli i emocje są rynkiem dla firm AI. Zarówno arcyludzkie, jak i nieludzkie cechy zostają zaszyte w strukturach AI. Jednak pytanie nie najważniejsze, to nie wyłącznie próba zrozumienia, co "budujemy" - Golema, czy Galateę - ale to, kto steruje doborem składników, a potem działania owego tworu.
Krzykawski jako jeden z wyników działania współczesnej techniki ukazuje proletaryzację - jednostka staje się częścią proletariatu (czyli orwellowskim prolem), gdy traci wiedzę, która wcześniej została przeniesiona na maszynę (Marks, Stigler). Z jednej strony jawi mi się społeczność proli - zaspokajających wyłącznie podstawowe potrzeby, ogłupianych, jednocześnie niepotrafiących wydobyć się z opresji rutyny przeciętnego życia, gdyż brak im kompetencji społecznych, emocjonalnych i intelektualnych. Z drugiej nie wiedzą i przez to tracą poczucie samodzielności i sensu życia, stają się częścią maszyny, a nie maszyna częścią ich pracy. Prole cechują się niezdolnością do utrzymania środków wiedzy - potencjalnie je posiadając, nie potrafią nimi dysponować i są skazani na odgórny dobór wzorców działań, dokonywany przez algorytm. Czy w takim razie Gen AI i wszystkie LLM są proletaryzujące?
Jest to zagadnienie epistemologiczne (problem poznawczy) - co stanie się z przyswajaniem wiedzy przy braku panowania nad procesem wytwarzania wiedzy? Dlatego też zwiększanie mocy obliczeniowej narzędzi bez zrozumienia celów jest nie tylko niebezpieczne, ale skutkować będzie sztuczną bezmyślnością użytkowników narzędzia (kto tego pragnąłby?). Idąc drogą myślenia Hannah Arendt, badającej kondycję ludzką z perspektywy ulegania wpływom, pozwala na wniosek, że przeniesienie myślenia na maszynę nie oznacza, że ona myśli, ale czy wyklucza myślenie tego, kto stoi za maszyną? Nawinie możemy sądzić, że to my jesteśmy budowniczymi Gen AI i chociaż pozornie tak jest, bo lepimy AI z samych siebie, jednak (1) dla kogo tworzymy ten konstrukt, (2) co on w rezultacie robi z nami i, najważniejsze, (3) po co - to kluczowe pytania, które powinniśmy sobie współcześnie zadawać.
Kiedy należy zacząć się bać utraty kontroli nad AI? Zdaniem panelisty, obserwujemy społeczną bifurkację (zgodnie ze "Słownikiem języka polskiego"), czyli proces polegającego na tym, że coś, co było jednolitą całością, rozdziela się na dwie części (tu: zaniepokojonych samą strukturą AI oraz uznających AI wyłącznie za narzędzie), które zaczynają biec lub rozwijać się niezależnie od siebie w różnych kierunkach - tak, jak myślenie dualistyczne o AI, w żadnym jednak założeniu nie rozważające, komu zależy na produkcie wyjściowym AI (nie, nie maszyny, a nas - jej użytkowników).
Proponowane wyjścia, czy raczej alternatywy?
- odejście AI od kapitału, dla którego jest AI sposobem na zarabiania,
- zdefiniować pracę po "końcu pracy" AI na nas,
- jakiemu społeczeństwu mają służyć maszyny?
- socjalizacja techniki - etyka użycia społecznego zasobu (czy w rzeczywistości społecznego?), którym jest w teorii czat GPT.
Yoan Capote “Stress” |
Jednym ze sposobów sprawdzania, na ile społeczeństwo jest kooperatywą indywiduów, a na ile proli, podali paneliści wspomnianej konferencji naukowej, czyli: Agata Magdalena Nowak, dr hab. Michał Krzykawski, Anna Cieplak, dr Hanna Sitarz-Pietrzak.
Człowieczość człowieka można skutecznie badać poprzez sztukę:
- literatura to w rzeczywistości partycypacja w stworzonym przez pisarza świecie, dlatego źródłem wiedzy są relacje,
- inne, nieliteralne dziedziny sztuki, to nadal nazywanie zjawisk społecznych przez wizualizację, idee i prototypy, przeżywanie czegoś, czego nie ma. Jednocześnie jest to nieustanne testowanie w sztuce doświadczeń i emocji, konfrontowanie ludzi z obrazem tego, co dotąd było tylko hasłem, nieuformowana ideą, czymś bez braku odniesienia,
- filozofia bazuje tylko na pojęciach, dlatego wymaga sztuki, która w procesie intersemiotycznym pozwoli przejrzeć się w upostaciowionej teorii (racjonalizm krytyczny Karla Poppera).
Jak włączać jednostki do interakcji, by wykorzystać sztukę do badania?
- sztuka powinna być egalitarna, inkluzyjna (bez tigertowania, czyli bez zawężania grupy odbiorców), zaangażowana - dla ludzi pogubionych w algorytmach stanowić to będzie przestrzeń samo-obecności,
- współcześnie, niestety, kultura jest przegadana, dominują przekazy pionowe lub spłycająca wartość obcowanie ze sztuką "eventoza", zamiast przestrzeni dyskusji, rozmowy ze sztuką i odbiorcy ze sobą,
- spektakularność sztuki powinna zostać zastąpiona skromnymi przestrzeniami do rozmowy, nauką obywatelstwa krytycznego i wzmacnianiem odwagi oswajania wiedzy niekomfortowej,
- warto zainicjować walkę wyobraźni z generowaną odtwórczością.
W podsumowaniu zostaje postawione pytanie otwarte: czy przy generatywnej AI jesteśmy twórcami, czy konsumentami? Kto korzysta z wielkich modeli językowych, a kto korzysta z nas - użytkowników i jakimi chce nas finalnie widzieć?
Podoba mi się użycie finałowego przykładu w charakterze argumentu: technologia nie może stworzyć nowych możliwości dla dziecka wyśmiewanego (chociaż niektórzy twierdzą, że przy pomocy aplikacji może np. lepiej się wyrazić, bo gdy nie potrafi rysować, to zrobi digital art przy pomocy AI, słabo czyta, to poćwiczy z narzędziami Microsoftu itp.). Problem nadal nie jest rozwiązany - opresorzy nadal są i może komuś zależy na tym, by zostali?
Wystąpienie dra hab. Mateusza Hohola uderzyło mnie i - no tak - zirytowało. Nie wiem, co wpłynęło na takie odczucie. Czy świadomość, że technika zawsze znajdzie furtkę, by doprosić się użycia, jak jest to w przypadku deficytu terapeutów (62 specjalistów psychiatrów na 10k osób), czy może nieskrywany entuzjazm panelisty okazywany idei chat-botów terapeutycznych.
Oczywiście, występujący poddawał w wątpliwość wiele elementów. Na przykład fakt, że konwersacyjna sztuczna inteligencja nie potrafi interpretować niczego, co nie/pozawerbalne, a psychoterapia, zdaniem wybitnego w tej dziedzinie Johna C. Norcrossa, bazuje na komunikacji. Jaki będzie koszt restrukturyzacji poznawczej?
Czy jednak można tworzyć relację z botem (nie "stworzyć", bo moim zdaniem zarówno w rozmowie, jak i terapii, chodzi o proces, czyli ciągłe budowanie się nawzajem w pogłębiających się sensach, znaczeniach, odniesieniach)? Założenia szkoły poznawczo-behawioralnej jako niezbędne w skutecznej terapii uznają: autentyczność, empatię, ciepło, szacunek, zaufanie, głębokie zrozumienie (Beck AT, Rush AJ, Shaw BF, et al: Cognitive Therapy of Depression. New York, Guilford, 1979; więcej tutaj). Z tej perspektywy czat-bot terapeutyczny (ta nazwa jest przerażająca imho!) zawodzi we wszystkich obszarach: to zdezorientowany terapeuta, nieludzki terapeuta, jednostka o "wąskiej inteligencji" czyli niezdolna do skomplikowanych, kontekstowych operacji.
Mimo to sympatycy uważają, że takie czat-boty mogą być użytecznym substytutem w obliczu braku ludzkich ekspertów (deflacja). Sympatycy procesu mimikry twierdzą, że człowiek ma tendencje do antropomorfizacji (np. personalizowania przedmiotów), dlatego użytkownicy takich czat-botów będą sądzili, że są w "relacji" z AI-terapeutą, jednak w finale stawiany jest problem etyczny, gdyż użytkownik nie zastosuje proponowanych rozwiązań, gdyż w kontakcie z przedmiotem dostrzeże oszustwo, iluzję. Grupa największych idealistów wierzy w "deception mode", czyli w stworzenie modelów cyfrowych, będących rekonstrukcją struktur ludzkiego myślenia. Tak, widziałam to w książce "Raport mniejszości", w której maszynie modeluje się zadania empatyczne, bazując na prekognicji uzdolnionych osób. Niestety, ani od panelisty, ani potem podczas prowadzonego po wystąpieniu panelu dyskusyjnego, nie uzyskałam odpowiedzi na najważniejsze pytanie: kto nadzoruje działanie maszyn i jakie działania ma ta maszyna wspierać, bo będą promowane przez jej twórcę?
Jeśli Gen AI zarządzająca czat-botem terapeutycznym uznamy za szeroką inteligencję, zdolną do podjęcia relewantnej dyskusji z pojedynczym użytkownikiem (choć wszyscy występujący podkreślali, że matrycą działań tych botów będzie frameing stosowania interwencji, wywodzący się głównie z terapii poznawczo-behawioralnej CBT, ponieważ jest łatwy do przełożenia na język tzw. ankiet rozpoznawczych, LOL!), to na KOGO ma ta terapia wyprowadzić użytkownika, jakim PRODUKTEM WYJŚCIOWYM ma zostać "leczony"?
Czy jeśli w procesie rozwoju Gen AI składowe inteligencji, czyli kognitywne (poznawcze) artefakty ewaluują w zewnętrzne reprezentacje umysłowe (rzeczy, które czynią nas mądrymi), to DLA KOGO będą użyteczne te wizualizacje? Ma być to podejście skoncentrowane na użytkowniku, ale jako kogo chce go widzieć ten, kto projektuje czat-bota? Czy rzeczywiście czat-bot zaprojektuje mnie do wolności, czy tylko do poczucia wolności? Pamiętam radość Syme'a, który z niekrywanym szczęściem twierdził, że po kolejnym wydaniu słownika myślozbrodnia będzie w praktyce niemożliwa.
Z irytacją notowałam podczas panelu dyskusyjnego (Katarzyna Drożdżal, dr hab. Mateusz Hohol, dr Patrycja Rudnicka, Agnieszka Zgud) własne pytania:
- Na jakich danych bazują czat-boty terapeutyczne i Gen AI/LLM? Jeśli ktoś wprowadził te dane, to jakimi ludźmi chce nas widzieć po kontakcie z czat-botami i Gen AI/LLM?
- Czy nie jest tak, że przy pomocy czegoś, co nie wiemy, jak działa (maszyna z pozoru samoucząca), próbujemy modelować coś, co nie wiemy, jak działa (ludzki mózg)?
- Do jakiego wzorca ludzi mogą formować ludzi czat-boty?
- Czy po kilku latach używania czat-botów sterowanych przez big tech ludzie będą prolami, czy ludźmi?
- Trzecie ciało kontrolne, społeczne serwery, AI Act - czy to zabezpieczy mnie przed psycho-formatowaniem?
- Kto definiuje skuteczność terapii prowadzonej przez czat-boty terapeutyczne?
- Kto definiuje wystarczającość odpowiedzi i rozwiązań przedstawianych mi przez Gen AI?
- Kto definiuje "normalność"?
- Czy po używaniu Gen AI będę w stanie być nadal wytwórcą wiedzy, czy może będą bezmyślnym odtwórcą, a moja bezmyślność będzie komuś na rękę?
Anthony Machuca |
Jeśli "czy", zamieni się na "jak", to zmienia się również podejście do zagadnienia ze sceptycyzmu na projektowanie możliwości. Wolę na ten moment pozostać sceptyczna, doprawiając to nutką niepokoju.
Brak komentarzy :
Prześlij komentarz