Logo Zephyrnet

Potrzebujemy regulacji, aby ocalić ludzkość przed sztuczną inteligencją… i ocalić zasoby sztucznej inteligencji – CryptoInfoNet

Data:

Jako sztuczna inteligencja (AI) rozwój stawia technologię w centrum uwagi, inwestorzy naturalnie wyczuwają szansę w powietrzu. Czują także zapach świeżo wydrukowanych formularzy i biurokracji organów regulacyjnych, które tylko czekają, aby je przyjąć i przeszkodzić ryczącej machinie innowacji AI. Jednak tym, którzy martwią się, że Wujek Sam może zmiażdżyć branżę nowymi przepisami i ograniczeniami, twierdzę, że w tym przypadku jest dokładnie odwrotnie: regulacje mogą uratować branżę przed nią samą. W rezultacie więcej przepisów dla branży chroni inwestorów, a nie szkodzi. 

W większości nowych branż słowo „regulacje” jest tematem tabu. Branża AI nie jest całkiem nowa. Nowoczesna koncepcja sięga lat pięćdziesiątych XX wieku, a w ciągu ostatnich 1950 lat zarówno prywatne, jak i publiczne inwestycje w tej dziedzinie rosły i malały. Lata 70. i początek 1980. ​​to okres cykl wzrostów i spadków w inwestycjach w sztuczną inteligencję. Inwestycje japońskiego rządu w latach 80. zapoczątkowały pierwszy duży boom komercyjny na sztuczną inteligencję. Jednak do 1993 r. „ponad 300 firm zamknęło swoje drzwi”, gdy bańka pękła. Jednak nowoczesny postęp w mocy obliczeniowej i modele dużych języków (LLM) dały tej branży nowe życie, a jej potencjał przyciąga nie tylko inwestorów, ale także organy regulacyjne.

Przepisy dotyczące sztucznej inteligencji: bałagan interesów i ryzyka

Pytanie, jakie powinny lub nawet mogą być „regulacje dotyczące sztucznej inteligencji”, należy do polityków, decydentów i etyków. Inwestorzy chcą oczywiście wiedzieć, co to będzie oznaczać dla ich portfeli. Jakie są największe zagrożenia? I w tym miejscu przepisy i regulacje mogą zapewnić pewną ochronę i pomóc w zarządzaniu tym ryzykiem.

Największe ryzyko dla inwestorów sprowadza się do trzech głównych, nakładających się na siebie problemów: oszustwa, ochrony własności intelektualnej i prywatności. Oczywiście istnieją już przepisy, które regulują wszystkie trzy kwestie z osobna. Problem polega jednak na tym, że sztuczna inteligencja stanowi wyjątkowo skomplikowane połączenie wszystkich trzech zagrożeń, które bez jasnych ram, praw i regulacji zagrażają postępowi całej branży.

Najbardziej palącym problemem dla inwestorów na tej liście jest oszustwo. Prawie każdy może zgodzić się, że zapobieganie oszustwom jest ważną i kluczową rolą regulacji.

Oszukańcze małpy jeżdżące na drutach: dwa studia przypadków

Dwa studia przypadków pokazują potencjalną przyszłość regulacji dotyczących sztucznej inteligencji, ryzyko oszustw oraz ramy czasowe regulacyjne, których powinni się spodziewać inwestorzy. Obydwa uosabiają także sposób, w jaki oszustwa będą kształtować przyszłe działania regulacyjne.

Pierwszy to świat kryptowalut i tokenów niewymiennych (NFT). Krypto, branża znacznie nowsza niż sztuczna inteligencja, doświadczyła wielu wzlotów i upadków oraz, co najważniejsze, oszustw. Komisja Papierów Wartościowych i Giełd (SEC) oraz Federalna Komisja Handlu (FTC) spędzili dobrą dekadę, próbując dowiedzieć się, jak dopasować kryptowaluty do swoich systemów regulacyjnych. Mimo to Kongres nie przyjął jeszcze żadnych wyraźnych przepisów związanych z kryptowalutami kilka prób.

W tym czasie powstało i upadło wiele giełd. NFT przestały być modne w latach 2021 i 2022 tracąc 95% swojej wartości, zabierając ze sobą miliardy dolarów inwestorów. Haniebny upadek FTX i ostatnia próba Sprawa Sama Bankmana-Frieda dotyczyła miliardów dolarów z nieuczciwie wykorzystanych środków.

Drugie studium przypadku dotyczy cyberbezpieczeństwa. W przeciwieństwie do kryptowalut, istnieje sporo ustalonych podstawowych przepisów dotyczących branży. Pierwsze dwa „prawdziwe” przepisy dotyczące cyberbezpieczeństwa to ustawa o oszustwach i nadużyciach komputerowych z 1986 r. oraz ustawa o kompleksowej kontroli przestępczości z 1984 r. Obie opierały się na kreatywnym i stosunkowo nowym rozumieniu „przewodów” (takich jak przewody telegraficzne) i oszustw drogą telegraficzną.

W ciągu kilkudziesięciu lat Kongres uchwalił fragmentaryczne przepisy dotyczące zagadnień cybernetycznych mieszane wyniki. Spowodowało to, że stany nadrobiły zaległości. Świat cyberbezpieczeństwa stanowi również przykład branży o głęboko przecinających się interesach, z których wiele przypomina ryzyko i martwe punkty regulacyjne stojące przed branżą sztucznej inteligencji. Jednym z najbardziej godnych uwagi jest prywatność. Obawy dotyczące prywatności jednostki, powszechnie kojarzonej z mediami społecznościowymi i Internetem rzeczy (IoT), pojawiają się również w przypadku modeli szkoleniowych AI.

Obydwa przykłady dostarczają lekcji dla szybko rozwijającej się branży sztucznej inteligencji. Środowisko w świecie kryptowalut charakteryzującym się wysokim ryzykiem, wysokimi zyskami i niskimi przepisami jest pełne oszustw i niestabilności. Cyberbezpieczeństwo to znacznie starsza i ugruntowana branża, ale otoczenie regulacyjne jest nadal niejednolite, szczególnie w zakresie prywatności.

Aktualny stan przepisów dotyczących sztucznej inteligencji

Aby więc zorientować się, której z tych ścieżek regulacyjnych powinni się spodziewać inwestorzy, przyjrzyjmy się obecnemu otoczeniu regulacyjnemu dotyczącemu sztucznej inteligencji.

Zaczynając od sceny krajowej, cóż… nie ma tego zbyt wiele, przynajmniej pod względem legislacyjnym. Z drugiej strony prezydent Joe Biden był zajęty wypracowywaniem ścieżki regulacyjnej poprzez dobrowolne zobowiązanie, a co najważniejsze, przełomowe i szeroko zakrojone rozporządzenie wykonawcze.

Na początku tego roku Biały Dom ogłosił niewiążące, dobrowolne zobowiązanie „zarządzaj ryzykiem stwarzanym przez sztuczną inteligencję”. Wśród sygnatariuszy tego zobowiązania jest kilka wielkich nazwisk, takich jak Amazon (NASDAQ:AMZN), Meta Platformy (NASDAQ:META), alfabet (NASDAQ:GOOG, NASDAQ:GOOGL) i OpenAI. Biuro ds. Polityki Naukowej i Technologicznej (OSTP), departament Białego Domu, również opublikowało: „Plan karty praw AI”. Kolejne szczególnie dobrowolne ramy bezpiecznego i etycznego wykorzystania sztucznej inteligencji.

Według Białego Domu „bezpieczne i etyczne wykorzystanie sztucznej inteligencji” wymaga rygorystycznych „testów przed wdrożeniem” i powstaje w wyniku „konsultacji z różnymi społecznościami, interesariuszami i ekspertami dziedzinowymi w celu zidentyfikowania obaw, ryzyka i potencjalnego wpływu systemu”. Systemy sztucznej inteligencji powinny również podlegać „[nie]niezależnej ocenie i raportowaniu”, aby zapewnić bezpieczeństwo w dłuższej perspektywie.

Zarządzenie wykonawcze AI Bidena

We wczesnych godzinach porannych 30 października Biały Dom ogłosił najbardziej kompleksowe działania regulacyjne dotyczące sztucznej inteligencji. Prowadzenie tego wysiłku było rozległe rozporządzenie wykonawcze (i elegancki nowy ) obejmujący wszystko, od bezpieczeństwa i ochrony po prywatność, prawa obywatelskie i nie tylko. Niniejsze rozporządzenie wykonawcze opiera się na wyżej wymienionym dobrowolnym zobowiązaniu i Karcie praw AI i koncentruje się głównie na tym, czego dokonuje większość rozporządzeń wykonawczych: mobilizuje do działania wiele departamentów i agencji Oddziału Wykonawczego.

Istnieje wiele szczegółów do dopracowania w odniesieniu do wpływu tego rozporządzenia wykonawczego na branżę, ale najważniejsze wnioski dla inwestorów to:

1. Opracowanie nowych wytycznych i polityk zajmie organom regulacyjnym sporo czasu.

2. Wszelkie szczegółowe regulacje wynikające z niniejszego EO będą opierać się na niepewnych podstawach prawnych, dopóki Kongres nie przyjmie przepisów dotyczących sztucznej inteligencji. Nadal zależy to od dobrowolnego przestrzegania, z jednym głównym wyjątkiem: ustawą o produkcji obronnej (DPA).

Powoływanie się przez Bidena na DPA jest zarówno godne uwagi, jak i mylące. DPA było jedynym faktycznie wyraźnym prawem, do którego odwołuje się EO, niosącym za sobą pewne potencjalnie istotne implikacje. DPA był ostatnio używany w kontekście pandemii Covid-19, ale zazwyczaj kojarzy się go z produkcją wojenną. Biden używa go tutaj w kontekście czysto bezpieczeństwa narodowego:

„…zarządzenie będzie wymagało, aby firmy opracowujące jakikolwiek podstawowy model, który stwarza poważne ryzyko dla bezpieczeństwa narodowego, bezpieczeństwa gospodarczego kraju lub krajowego zdrowia i bezpieczeństwa publicznego, musiały powiadomić rząd federalny podczas szkolenia modelu i udostępnić wyniki wszystkich testy bezpieczeństwa zespołu.”

Nie jest jasne, kto jest objęty tym wspieranym przez DPA „procesem przeglądu”, ponieważ inne agencje mają bardziej szczegółowe obowiązki regulacyjne. Przykładowo Narodowy Instytut Standardów i Technologii (NIST) ma opracować standardy bezpieczeństwa AI, a Departament Bezpieczeństwa Wewnętrznego (DHS) polega na ich wdrożeniu dla infrastruktury krytycznej. Być może ważniejsze jest wyjaśnienie, która agencja w ogóle wdroży tę politykę.

Jest jeden godny uwagi kandydat, którego DPA prawie na pewno obejmie ze względu na istniejące kontrakty w dziedzinie obronności: Palantir (NYSE:PLTR). Wykonawca Big Data i coraz bardziej skupiający się na sztucznej inteligencji nie jest sygnatariuszem porozumienia Białego Domu dobrowolne przyrzeczenie. Może to mieć więcej wspólnego z konserwatywno-libertariańskimi skłonnościami politycznymi przewodniczącego Palantir Petera Thiela i poparciem dla byłego prezydenta Donalda Trumpa niż z całkowitym odrzuceniem dalszych regulacji. Jednak to pominięcie jest godne uwagi, ponieważ Palantir ma wobec niego wielkie plany „przejęcie całego rynku sztucznej inteligencji”.

Podsumowując, ramy regulacyjne określone w rozporządzeniu wykonawczym Bidena są przełomowe i, że tak powiem, zmuszają Kongres do zbudowania reszty izby regulacyjnej.

Niestety, na rozpoczęcie przez legislatorów „wylewania betonu” możemy dość długo poczekać.

Co z Kongresem?

W rozporządzeniu wykonawczym Białego Domu dotyczącym sztucznej inteligencji znajdują się tylko dwa odniesienia do Kongresu, ale oba wzywają Kongres do przyjęcia dwustronnych przepisów dotyczących sztucznej inteligencji (jedno dotyczyło wyraźnie przyjęcia ustawy o ochronie prywatności).

Według Brennan Center For Justice Kongres tak około 60 rachunków związanych ze sztuczną inteligencją zasiadając w różnych komisjach.

Jednak w chwili pisania tego tekstu Izba Reprezentantów właśnie zakończyła uzgadnianie nowego spikera Izby i ma „większą rybę do smażenia” w obliczu kolejnego zbliżającego się terminu zawieszenia działalności rządu i towarzyszącej mu bitwy budżetowej. Nie wspominając o kontrowersyjnych ustawach pomocowych dla Izraela i Ukrainy oraz wielu innych, bardziej palących obawach.

Pozostawiają więc dwa inne źródła regulacji dotyczących sztucznej inteligencji: poszczególne stany USA i podmioty międzynarodowe. Pierwsza grupa, składająca się z zaledwie kilku z 50 stanów kraju, tak przeszedł patchwork odpowiednich przepisów, przy czym głównym celem jest sztuczna inteligencja i prywatność konsumentów. Na arenie międzynarodowej Chiny przodują w budowaniu m.in złożony i zaawansowany zestaw przepisów dotyczących sztucznej inteligencji. Kompleksowe ramy regulacyjne Unii Europejskiej, zatytułowane po prostu „Ustawa o sztucznej inteligencji” oczekuje się, że zostanie sfinalizowany i uchwalony do końca roku.

Przepisy dotyczące sztucznej inteligencji i co przyniesie przyszłość

Gdzie zatem znajduje się ta szybko rozwijająca się, potencjalnie wysoce destrukcyjna branża? Czy pójdzie kryptograficzną ścieżką do regulacji, która jest pełna oszustw i niestabilności? Lub wolniejszą, bardziej stabilną, ale wciąż niejednolitą ścieżkę cyberbezpieczeństwa. Cóż, na razie, przynajmniej w Stanach Zjednoczonych, prawdopodobnie będzie to mieszanka obu.

Sztuczna inteligencja ma potencjał destrukcyjny i zarabiania pieniędzy, o jakim branża kryptowalut może tylko marzyć. Ma jednak również główny potencjał i użyteczność, jakie zapewnia branża cyberbezpieczeństwa. Dla inwestorów, żeby nie brzmiało to zbyt sensacyjnie, dla ludzkości jest to ryzykowne połączenie.

Istnieje niezliczona ilość potencjalnych zastosowań sztucznej inteligencji w świecie rzeczywistym, od rolnictwa, przez obronę, po finanse i opiekę zdrowotną. Wyciągnięcie dywanika kryptowalutowego może oszukać inwestorów z ich pieniędzy lub haker może ukraść pieniądze z banku, ale ryzyko związane z wypadkami związanymi z sztuczną inteligencją lub złośliwym zachowaniem mogłoby być katastrofalne.

Hipotezy dotyczące tego, co może pójść nie tak, są nieograniczone w miarę dalszego włączania sztucznej inteligencji do codziennego życia. Jednak już teraz obserwujemy niepokojące przypadki złośliwego użycia sztucznej inteligencji. Niedawny początek wojny między Izraelem a Hamasem wywołał zalew dezinformacji na platformach mediów społecznościowych takich jak X (dawniej Twitter). Niektóre fałszywe obrazy udostępniane w Internecie są generowane przez sztuczną inteligencję i często tworzone za pomocą łatwo dostępnych narzędzi, takich jak generator obrazów Bing. Dzięki stale udoskonalanej technologii rozpoznawanie fałszywych zdjęć i filmów będzie coraz trudniejsze.

Przeciwstawiamy się także zagrożeniom, które kiedyś można było znaleźć jedynie w science fiction, takich jak „nieuczciwa sztuczna inteligencja”. Podczas planowania posiłków AI przypadkowo sugerując przepis na chlor gazowy jest dziś warte kilku chichotów, byłoby znacznie mniej humorystyczne, gdyby stanowiło sztuczną inteligencję odpowiedzialną za, powiedzmy, zautomatyzowaną farmę na dużą skalę, która przypadkowo (lub, co gorsza, celowo) zanieczyszczała uprawy warzyw.

Jak to się mówi: „Przepisy bezpieczeństwa są zapisane krwią”. I naprawdę nie powinniśmy czekać, aż przeleje się krew, zanim podejmiemy działania.

Z prawnego punktu widzenia istnieje już „młot” w sprawie przeciwko Google, która zdaniem firmy byłaby możliwa zniszczyć koncepcję generatywnej sztucznej inteligencji. Aby uniknąć takiego losu, branża potrzebuje jasnych, możliwych do wyegzekwowania przepisów, które mogą chronić zarówno społeczeństwo, jak i firmy zajmujące się sztuczną inteligencją przed wzajemnym gniewem prawnym.

Ze względu na inwestorów i wszystkich, należy zapewnić większy nadzór regulacyjny nad branżą sztucznej inteligencji, zanim coś pójdzie strasznie źle. Nowe rozporządzenie wykonawcze Białego Domu zapewnia bardzo kompleksowe ramy dotyczące wielu kwestii związanych ze sztuczną inteligencją i stanowi dobry początek. Jednak bez uchwalonych przez Kongres przepisów zapewniających organom regulacyjnym solidną podstawę do budowania, skończymy z bałaganem w stylu kryptograficznym złożonym z zdezorientowanych organów regulacyjnych. Doprowadzi to jedynie do zdezorientowania uczestników rynku i zdezorientowanych inwestorów. A biorąc pod uwagę, że sztuczna inteligencja jest tak wielka i niebezpieczna, nie jest to coś, czego ktokolwiek powinien chcieć.

Zatem nie, przepisy dotyczące sztucznej inteligencji takie nie są "wróg," jak to ujął manifest jednego z inwestorów kapitału wysokiego ryzyka, mogą one jednak działać jak poręcze zabezpieczające, które pomogą chronić branżę i inwestorów przed ogromnym ryzykiem.

Co inwestorzy powinni teraz zrobić

Bez wyraźnych barier inwestowanie w świat sztucznej inteligencji jest ryzykownym przedsięwzięciem. Inwestorzy, którzy nie są specjalnie zaniepokojeni wpływem tych zebranych w całość przepisów, mogą podejmować bardziej ryzykowne zakłady na szereg startupów próbujących wzbogacić się. Lub na ustalonych, ale ignorujących przepisy grach, takich jak Palantir.

W przeciwnym razie inwestorom byłoby lepiej, gdyby sprawdzili, które firmy „grają w piłkę” z dobrowolnym zobowiązaniem Białego Domu. Lub te, które dostosowują się do międzynarodowych zmian regulacyjnych wychodzących z UE i Chin. Firmy te prawdopodobnie albo postrzegają te nowe regulacje jako coś, z czym mogą żyć, albo coś, co mogą wykorzystać na swoją korzyść.

Tak czy inaczej, młot regulacyjny w pewnym momencie spadnie. Najlepiej byłoby dla wszystkich, nie tylko inwestorów, aby spadła, zanim druga połowa wyrażenia „działaj szybko i niszcz rzeczy” rozbije branżę sztucznej inteligencji.

W dniu publikacji Andrew Bush zajmował pozycję DŁUGĄ w akcjach GOOGL i AMZN. Opinie wyrażone w tym artykule są opiniami autora i podlegają Wytycznym wydawniczym InvestorPlace.com.

Andrew Bush jest redaktorem wiadomości finansowych w InvestorPlace i posiada dwa stopnie naukowe w dziedzinie spraw międzynarodowych. Pracował w edukacji, sektorze technologicznym oraz jako analityk ds. badań w firmie konsultingowej z siedzibą w DC, zajmującej się bezpieczeństwem narodowym.

Link Źródło

#Rozporządzenia #Ratuj #Ludzkość #AI.. #Ratuj #Zapasy

spot_img

Najnowsza inteligencja

spot_img