sobota, 17 lutego 2024

Prekognicja surogatów

Podczas wykładu Tristan Harris i Aza Raskin pytają (LINK: tutaj): Czy wyginiemy z powodu nieumiejętności kontrolowania AI?


Wykład autorstwa Tristana Harrisa i Azy Raskina.

Oto kilka pytań, które stawiają prelegenci:

Czy wraz z odkryciem AI stworzono nowe obszary zabezpieczeń i reguły odpowiedzialnego korzystania?

Czy przewidzieliśmy skutki wyścigu udoskonalania AI przez instytucje wdrażające ten wynalazek?

Jeśli nie potrafimy kontrolować algorytmów w mediach społecznościowych, jakim prawem możemy twierdzić, że będziemy w stanie kontrolować AI?

Czy przewidzieliśmy, co się stanie, gdy przy pomocy technologii "damy wszystkim głos", połączymy znajomych, stworzymy cyfrowe społeczności, ułatwimy dostęp do nas firmom?

Czy potrafimy kontrolować zanurzenie w cyfrowym świecie, a może jesteśmy jego zakładnikami?

Czy wiemy kto i jak wykorzystuje dane wprowadzane przez nas do narzędzi AI?

Czy AI widzi nas takimi, jacy jesteśmy, czy raczej definiuje nas poprzez nasze nieumiejętności, uprzedzenia i braki?

Czy panujemy nad językiem programowania, w którym swobodnie porusza się AI (generatve, large language, multi-modal model - golemy "GLLMM")?

Wykład autorstwa Tristana Harrisa i Azy Raskina.

Jeśli AI swobodnie przemieszcza się pomiędzy językami (literowym, graficznym, cyfrowym, programowania), to czy nie ona rządzi zasobem słownikowym?

Która to już będzie wersja słownika w opinii Syme'a ("1984")? > link do moich propozycji odnośnie lektury

Czy zdajemy sobie sprawę, że wszystko, czego dokonujemy i co definiujemy opiera się na języku, jakiego używamy?

Czy mam pewność, kto stoi za filtrem w TikToku i komunikuje się z odbiorcami, jakie ma intencje?

Czy rozumiemy potencjał generatywnej AI?

Czy wiem, że na podstawie poziomu zrozumienia "Theory of Mind" mogę określić wiek AI, a tym samym poziom zaawansowanej kombinatoryki, którą to narzędzie dysponuje (w 11 miesięcy osiągnęło poziom 9 latka)?

Czy zdajesz sobie sprawę, że 9 latek nie wykona już wszystkich podanych mu infantylnych poleceń (np. klepnij się w nos) w odróżnieniu od 2 latka, który zrobi to z bezkrytycznym entuzjazmem?

Wykład autorstwa Tristana Harrisa i Azy Raskina.

Czy potrafisz wyjaśnić, jak i dlaczego AI, po kilkunastu miesiącach używania przez anglojęzycznych użytkowników, nagle zdobyła umiejętność rozumienia perskiego, choć nikt nie programował urządzenia do znajomości tego języka?

Ile "wzorów analogicznych" używa AI, by realizować samoedukację?

Czy zdajemy sobie sprawę, że generatywna AI karmi się sobą?

Czy przy takim tempie uczenia się przez AI, jej demokratyzacja jest bezpieczna?

Wkładamy w AI wszystko, łącznie z najbrzydszym obrazem działalności człowieka, nie dając maszynie wskazówek, co ma zdefiniować jako niepożądane. Jak AI wykorzysta RLHF (reinforcement learning from human feedback)?

Wykład autorstwa Tristana Harrisa i Azy Raskina.

Czy rozumiemy, że w ćwiczeniu swoich możliwości AI nie męczy się i może się samo-testować 24h/dobę?

Czy po kontroli zależności społecznej, AI przejmie kontrolę nad naszą intymnością?

Czy nasze prawa społeczne, które powielają strukturę regulacyjną z XIX wieku, są przygotowane na świat zarządzany przez AI?

Czat AI jest zawsze gotowy do rozmowy, wypoczęty i pełen zapału - jak to wpłynie na umiejętności interpersonalne ludzi formowanych już w wieku nastoletnim (nowe wtyczki Snapchatu)?

Czy AI wbudowane w komunikatory dostępne dla nastolatków, wie, co to jest grooming? 

Kto wychowuje dzieci, jeśli mają one w dostępie zawsze gotowego do odpowiedzi chat-bota AI?




Wykład autorstwa Tristana Harrisa i Azy Raskina.

Skoro dla zapobieżenia wojnie nuklearnej stworzyliśmy ONZ, to dlaczego nie tworzymy instytucji regulującej wykorzystanie AI?

Czy mamy kontrolę nad użyciem GLLMM AI przez zwykłych użytkowników, których dopuściliśmy do tworzenia bazy danych i reakcji dla AI?

Wykład autorstwa Tristana Harrisa i Azy Raskina.

Czy AI zostało właściwie przetestowane?

Kto i do jakich celów wykorzystuje modele open source?

Czy nie nauczyliśmy się niczego przy wdrażaniu social mediów, co warto byłoby zastosować przy rozwijaniu generatywnego AI?

Czy rozumiemy, że nasz umysł się broni? W pewnym momencie nasza zdolność poznawcza do zrozumienia czegoś zupełnie odmiennego od tego, co już wiemy, po prostu imploduje i wracamy do bezpiecznych ustawień domyślnych - The Rubber Band Effect (link do wyjaśnienia pojęcia).


Jaka jest, człowiecze XXI wieku, Twoja odpowiedź? Głowę zwiesił niemy.


Dziękuję Karlowi Downingowi za link do filmu.


Brak komentarzy :

Prześlij komentarz