Logo Zephyrnet

Czy Wall Street może mieć wpływ na rozwój sztucznej inteligencji?

Data:

Sztuczna inteligencja, w szczególności sztuczna inteligencja generatywna, w dalszym ciągu obiecuje znaczną poprawę produktywności w wielu branżach, w tym w bankowości i ubezpieczeniach.

Sztuczna inteligencja stwarza również wiele wyzwań, co objawia się tendencją do halucynacji. Kolejnym czynnikiem jest możliwość nadużyć. Może to wynikać z nieświadomych błędów w zbiorach uczenia danych, które skutkują dyskryminacją osób kolorowych. Może również odzwierciedlać sposób programowania systemów genAI, czego dowodem jest niedawne zamieszanie wokół „przebudzonych” wizerunków papieży lub innych postaci historycznych, które wyglądają zupełnie inaczej niż biali mężczyźni.

W najbardziej ekstremalnych przypadkach zarządzający aktywami mogą zwrócić się do AI w celu badań, a nawet portfeli handlowych. Halucynacje mogą zrujnować firmę; podobnie jak próba wyjaśnienia organowi regulacyjnemu, dlaczego bot spowodował awarię Flasha.

Jest mało prawdopodobne, aby sztuczna inteligencja została uwolniona w tak dramatyczny sposób, ale można ją zastosować w bardziej subtelny sposób. Właściwie to już jest.

Banki, ubezpieczyciele i fintechy korzystają już z narzędzi AI do oceniania ratingów kredytowych lub zawierania polis. Branża jest narażona na ryzyko, że nie będzie w stanie wyjaśnić niezadowolonemu klientowi, na przykład, dlaczego odmówiono mu kredytu.

Bardziej przyziemną kwestią jest to, kiedy można zastosować sztuczną inteligencję. Na przykład oprogramowanie może zostać użyte do przeanalizowania czyichś wyników w mediach społecznościowych w celu oceny ich stanu psychicznego, co można wykorzystać do wyceny produktu finansowego. Rodzi to wiele pytań.

Czy firmy powinny mieć możliwość uwzględniania takich danych? Jeśli nie, jakie substytuty będą szukać, aby poznać potencjalnego klienta? Co stanowi prywatność i jak jest egzekwowana?

Reguluj, proszę

Naturalną odpowiedzią na takie pytania jest zaangażowanie organów regulacyjnych. Najlepiej opracować neutralny zestaw zasad, aby powstrzymać najgorsze impulsy firmy. Łatwiej jest też pozwolić organom regulacyjnym zająć się najcięższymi sprawami – i zachować swobodę wzruszania ramionami, jeśli tego nie robią.

Regulacja jest konieczna, ale czy wystarczy? Być może, ale tylko wtedy, gdy branża finansowa będzie zadowolona z pozostawienia innowacji Big Tech i nowemu rodzajowi start-upów AI.

Jeśli chodzi o sztuczną inteligencję, rzeczywistość jest taka, że ​​organy regulacyjne nigdy nie będą w stanie dotrzymać kroku. Nie jest to złe: oczekujemy, że innowacje będą pochodzić z sektora prywatnego. Jednak charakter sztucznej inteligencji utrudnia regulację.

Po pierwsze, w organach regulacyjnych niewiele osób ma głęboką wiedzę specjalistyczną w zakresie uczenia maszynowego i innych narzędzi sztucznej inteligencji, nie mówiąc już o genAI.

Po drugie, utrzymanie się w tym świecie wymaga dysponowania ogromnymi macierzami procesorów graficznych, jednostek przetwarzania grafiki, układów szkieletowych zasilających aplikacje AI oraz sprzętu centrów danych składających się na chmurę.

Branża sztucznej inteligencji obejmuje start-upy, takie jak OpenAI, graczy Big Tech, takich jak Microsoft i Meta, specjalistów od chipów, takich jak Nvidia, oraz dostawców usług w chmurze, takich jak AWS. Ci giganci dysponują wyjątkowo ogromnymi zasobami, które wyłapują największe talenty i kupują moc obliczeniową do obsługi systemów sztucznej inteligencji.

Ani organy regulacyjne, ani przedsiębiorstwa nie mogą ustalać programu, dopóki tak się nie stanie.

Siła nabywcza

Organy regulacyjne mogą próbować ustalać zasady – i powinny, ponieważ mogą kształtować podstawowe normy – ale będą miały trudności z radzeniem sobie z niuansami dotyczącymi zapobiegania nadużywaniu systemów sztucznej inteligencji przez banki i inne podmioty.

Istnieją jednak alternatywy. Jednym z nich jest spojrzenie wstecz na to, jak rządy pomagały wspierać innowacyjne gospodarki na początku. Na przykład Dolina Krzemowa w dużej mierze zawdzięcza swój sukces programom masowych zakupów NASA i armii amerykańskiej w latach pięćdziesiątych i sześćdziesiątych XX wieku.



Podobnie tylko rządy mają potencjał, aby wejść na rynek infrastruktury sztucznej inteligencji i zakupić procesory graficzne do własnych programów badawczych, które mogą dorównać skali Big Tech. Jest to jeden ze sposobów ustanawiania standardów poprzez uczestnictwo i przywództwo, zamiast ciągłego dotrzymywania im kroku poprzez pisanie kolejnych zasad.

A co z usługami finansowymi? Jak dotąd nic nie wskazuje na to, że rządy są przygotowane do pełnienia tej roli, co pozostawia inne branże na łasce Big Tech.

Lekcja jest podobna: Wall Street musi stać się na tyle ważnym klientem Big Tech, aby mógł wyznaczać standardy traktowania sztucznej inteligencji.

Problemem jest rozmiar. Nawet JP Morgan nie ma tyle siły, by dorównać Microsoftowi na tej arenie. To nigdy nie uzasadnia kosztów.

Otwarta sztuczna inteligencja

Ale co z branżą jako grupą? Czy Big Finance – we współpracy z wiodącymi fintechami na całym świecie – może połączyć zasoby i stać się klientem strategicznym?

Banki nie są przyzwyczajone do wspólnej gry. Takie podejście byłoby zupełnie obce.

Z drugiej strony banki powoli przekonują się do otwartego oprogramowania do tworzenia oprogramowania. Uznają, że dzielenie się kodem dla wielu funkcji niezwiązanych z podstawowymi funkcjami – bycie uczestnikami społeczności, a nie właścicielami własności – może stworzyć oprogramowanie lepszej jakości i bardziej odporne.

Czy open source działa z genAI?

Odpowiedź jest niejasna. Niektóre duże technologie w tej przestrzeni były otwarte na swój rozwój, np. Meta, która umożliwia start-upom AI pobieranie i dostosowywanie niektórych swoich modeli.

Standardy branżowe dotyczące oprogramowania open source wymagają dopuszczenia wszystkich przypadków użycia, ale niewiele startupów genAI faktycznie spełnia te kryteria. Większość, w tym absurdalnie nazwana OpenAI, prowadzi zamknięty sklep.

Dzieje się tak dlatego, że genAI nie przypomina innych kategorii oprogramowania. Kod źródłowy jest tylko jednym komponentem. Równie ważne są dane szkoleniowe i sposób ich kategoryzacji. Obecnie w branży sztucznej inteligencji nie ma zgody co do tego, co w ogóle oznacza „otwarte oprogramowanie”.

Oto otwarcie dla instytucji finansowych. Banki, giełdy i dostawcy danych wspólnie posiadają masę krytyczną danych, z których większość dotyczy rynków kapitałowych i usług finansowych. Teoretycznie, gdyby istniał mechanizm agregowania tych informacji, mogłaby istnieć podstawa do wspólnego tworzenia kodu i związanych z nim standardów.

Sprzedawcy sprzeciwialiby się każdemu posunięciu, które zniszczyłoby ich biznes; banki i ubezpieczyciele nie są chętni do współpracy nad czymkolwiek, co można uznać za kluczowe. Z drugiej strony w ramach usług finansowych mogą istnieć obszary, które dla większości graczy nie są kluczowe i w których pożądane byłoby rozwiązanie branżowe. Przychodzą mi na myśl tożsamość cyfrowa, zgodność, raportowanie i aspekty zarządzania ryzykiem.

DigFin zdaje sobie sprawę, że jest to koncepcja bardzo spekulacyjna, która może nigdy nie uzasadniać ogromnego wysiłku, jaki byłby wymagany, aby tak się stało. Z drugiej strony, jak ważne jest, aby branża finansowa kształtowała swoją przyszłość, zamiast biernie czekać, aż Dolina Krzemowa zrobi to w jej miejsce? Być może w tym miejscu wracamy do koncepcji rządu jako dużego klienta sztucznej inteligencji. Aby rząd mógł działać w tym charakterze, potrzebuje własnych programów. Regulowanie usług finansowych w dobie sztucznej inteligencji wydaje się dobrym punktem wyjścia.

spot_img

Najnowsza inteligencja

spot_img