Logo Zephyrnet

Pomocni asystenci, romantyczni partnerzy czy oszuści? Część druga » Blog CCC

Data:

CCC wsparło trzy sesje naukowe podczas tegorocznej Dorocznej Konferencji AAAS, a jeśli nie mogli Państwo uczestniczyć osobiście, podsumujemy każdą sesję. Dzisiaj podsumujemy najważniejsze elementy części sesji z pytaniami i odpowiedziami: „Modele wielkojęzyczne: pomocni asystenci, romantyczni partnerzy czy oszuści?” Panel ten, moderowany przez Doktor Maria Gini, członek Rady CCC oraz profesor informatyki i inżynierii na Uniwersytecie w Minnesocie Doktor Ece Kamar, dyrektor zarządzający AI Frontiers w Microsoft Research, Doktor Hal Daume III, profesor informatyki na Uniwersytecie Maryland i Doktor Jonathan May, profesor informatyki w Instytucie Nauk Informacyjnych Uniwersytetu Południowej Kalifornii.

Poniżej znajduje się fascynujące podsumowanie części pytań i odpowiedzi "Modele wielkojęzyczne: pomocni asystenci, romantyczni partnerzy czy oszuści?"płyta. Czy sztuczna inteligencja jest zdolna do miłości? Jaki wpływ te modele mogą mieć na dzieci? Jak układają się możliwości sztucznej inteligencji Stanów Zjednoczonych? Dowiedz się poniżej:

P: Jakie praktyki powinniśmy zastosować, wdrażając modele językowe AI w kontekstach wielojęzycznych i wielokulturowych?

Dr May: Rozwijając technologię i obniżając mury, należy ułatwiać ludziom robienie tego, co chcą. To, co chcą robić wszyscy, a nie tylko ja. Dziękuję AI, wspaniale jest skupić się na mnie, ale ogólnie powinniśmy zwracać uwagę na resztę świata.

P: Niektóre z tych ogólnych kwestii – nie jest to pierwszy raz, kiedy są poruszane. Wygląda na to, że społeczność sama do tego nie dojdzie. Zastanawiam się, czy wszyscy z Was mają pomysły, jak przełożyć te rozmowy na działania?

Dr Kamar: Istnieje wiele ról do odegrania przez wiele różnych stron. Ocena ma ogromne znaczenie w przypadku reprezentowania różnych kultur i populacji. Gdy zbiory danych nie charakteryzują się różnorodnością reprezentacji świata, powstałe systemy nie są reprezentatywne. Wiele pracy należy włożyć w tworzenie najlepszych praktyk, przepisów i środków oceny w zakresie oceny. Biały Dom podjął zobowiązania i rozpoczyna się prace nad projektem karty praw AI. Wdrożono procesy w całej branży, przy współpracy wielu wielkich umysłów (nie jest to idealne, ale uogólniając, w całej branży istnieje potencjał). Odbywają się spotkania mające na celu osiągnięcie konwergencji w zakresie obecnie zaczynających się standardów; ewentualnie w przyszłych przepisach. Jak przeprowadzamy oceny, analizy bezpieczeństwa itp.? Żadna z tych rozmów nie jest tak zróżnicowana, jak powinna być na sali. Zastanów się, kto musi być na sali podczas podejmowania decyzji.

Dr Daumé: Myślę, że kiedy ludzie mówią o regulacjach, szczególnie w przypadku sztucznej inteligencji, wszyscy mają na myśli regulacje karne. Może to jednak również stanowić zachętę do wprowadzenia regulacji. Finansowanie decydentów i NSF mogłoby promować rozwój narzędzi, które pomogą nam jako narodowi i światu.

P: Finansowanie sztucznej inteligencji w USA jest znacznie opóźnione w porównaniu z innymi miejscami na świecie. Nowa inwestycja NSF to jakieś 20 milionów, czyli grosze w porównaniu z inwestycjami branżowymi. Rząd federalny publikuje raporty z badań prowadzonych od lat i wniosek jest taki, że Stany Zjednoczone muszą działać. Podoba mi się analogia zmiany fazy u Ece’a. Granica termodynamiczna w liczbach rośnie. Chcemy otwartej sztucznej inteligencji, kto za to zapłaci? Nie ma wystarczającej ilości pieniędzy. Jakie są Twoje sugestie? Otwarta sztuczna inteligencja? Ale nie mamy nawet publikacji w otwartym dostępie. Czy zalecałbyś prezydentowi, aby nie posiadał ustawodawstwa?

Dr May: Myślę, że są pieniądze; ktoś mi zauważył, że udało wam się przekonać rząd do kręcenia cząstkami, ale nie udało wam się skierować tego do nas.

Dr Kamar: Powodem, dla którego firmy budujące te modele uzyskują takie wyniki, jest centralizacja zasobów. Wiele można zyskać dzięki skali. Powinniśmy pomyśleć o tym, jak scentralizować inwestycje w środowisku akademickim, abyśmy otrzymali wspólne zasoby zamiast wielu różnych modeli. Widzimy, że nie chodzi tylko o skalę. Nie jest to coś, co musimy teraz robić, ale obecna architektura nie jest wspaniała. Posiadanie dobrych możliwości sztucznej inteligencji nie powinno oznaczać tylko większej ilości pieniędzy i większej władzy.

P: Błędna nadreprezentacja w odpowiedziach. Czy wiemy, skąd pochodzi? Jestem matematykiem i myślę, że to połączenie błędów zaokrągleń dodaje stronniczości? Gdyby równa reprezentacja, wyobrażam sobie, że wygenerowałaby równą reprezentację, czy też nadal by tam była?

Dr May: Wiele sprowadza się do funkcji skokowych. Miękkie maksimum jest ważną częścią treningu. Najwyższy chce być numerem 1. To nie jest tak, że istnieje doskonały język, ale chcemy zachować pewne uprzedzenia”. Chcemy po prostu zminimalizować szkody wyrządzane ludziom, a często nie jesteśmy tego świadomi. Wdrożenie bez zrozumienia stanowi problem. 

Dr Daumé: Jednym z wyzwań związanych z tymi modelami jest to, że nie ma już wąskich modeli sztucznej inteligencji. Mówią, że mogą wszystko, więc trudno wszystko przetestować.

P: Wspomniałeś, że sztuczna inteligencja jest narzędziem lub zamiennikiem. Jak myślisz, w którą stronę to pójdzie?

Dr Daumé: Na wymianę przeznacza się więcej pieniędzy.

P: Tytuł wspomniał o romantycznej sztucznej inteligencji. Chcę wiedzieć więcej na ten temat.

Dr May: Modele nie mają wystarczającej intencji, aby mogły stać się realnymi romantycznymi zamiennikami, ale są tak samo dobre jak ludzie w rozpoznawaniu wzorców, nawet jeśli one nie istnieją.

Dr Kamar: Radzę nie myśleć o sztucznej inteligencji takiej, jaka jest obecnie. Spróbuj spojrzeć w przyszłość – wyobraź sobie, że za kilka lat te systemy będą spersonalizowane pod Ciebie. Jaki będziesz mieć związek z tym systemem?

Dr May: Ale czy będzie cię kochać?

Dr Kamar: Powie ci, że cię kocha.

Dr May: Ale czy to wystarczy?

P: Chcę usłyszeć rady od osób nie zajmujących się sztuczną inteligencją. Jak możemy korzystać z tych narzędzi? Co powinniśmy wiedzieć?

Dr Daumé: Na Uniwersytecie Maryland często prowadzimy takie rozmowy. Łatwo mi powiedzieć, że za 5 lat dziennikarstwo będzie inne i inne dziedziny też. Niewygodnie jest mówić, że za 5 lat rola profesora będzie inna, ale tak się stanie. Mam kolegów, którzy używają różnych wtyczek LLM do składania wniosków i artykułów; to już się dzieje. Regularnie dostaję pytania egzaminacyjne pisane za pomocą narzędzi, ale muszę sprawdzać ich dokładność. Pisanie pytań egzaminacyjnych nie sprawia mi radości, więc AI może mi to zdjąć. W szkolnictwie wyższym musimy o tym więcej myśleć. Jak zmienia to naszą pracę? Na uniwersytetach toczy się wiele dyskusji, ale nie ma zbyt wielu wspólnych zasobów.

P: Jak mile widziana jest ocena sztucznej inteligencji w przyszłości przy rozważaniu zastosowań wojskowych? Podczas tej sesji nie było żadnej wzmianki o zastosowaniach wojskowych – wiem, że jeśli dobrze odczytuję wypowiedzi ludzi, istnieją rozbieżności zdań na ten temat.

Dr May: Wojsko jest szerokie, wiele mojej pracy jest sponsorowanych przez Departament Obrony. Trudno odpowiedzieć konkretnie, ogólnie rzecz biorąc wydaje się, że Departament Obrony (nie wypowiadając się w jego imieniu) priorytetowo traktuje bezpieczeństwo i ochronę Stanów Zjednoczonych i nadal będzie to robić, wykorzystując LLM i sztuczną inteligencję, aby pomóc USA zachować bezpieczeństwo.

Dr Kamar: Musimy także porozmawiać o podwójnym zastosowaniu. Jeśli weźmiemy pod uwagę prace wojskowe prowadzone w dziedzinie biologii lub cyberbezpieczeństwa, możemy wykorzystać bardzo obiecujące narzędzia, które obecnie mamy, i wykorzystać je, ponieważ chcemy bezpiecznych systemów i nowych leków. Ale przy każdym dobrym użyciu będziesz mieć zły użytek. W jakich przypadkach nie chcemy używać sztucznej inteligencji? W aplikacjach open source ludzie mogą replikować te modele. Jak chronić ludzi przed wyrządzaniem krzywdy w takich przypadkach?

P: Podczas interakcji z modelami językowymi dorośli rozumieją, że nie jest on żywy/samoświadomy, ale co z kilkoma pokoleniami później? dzieci, które cierpią na tę chorobę odkąd pamiętają kontakty towarzyskie? Mają nauczyciela lub nauczyciela, który jest w pełni sztuczną inteligencją; system jest wbudowany w instruktora. Mogliby stworzyć więź dzięki instrukcji, pomyśleć, że mają świetne relacje, a wtedy program zostałby usunięty. Jaka jest psychologia dziecka dotycząca społecznych więzi emocjonalnych z bytami nieosobowymi?

Dr Kamar: Potrzebujemy badań, badań interdyscyplinarnych i to szybko. Być może za 5 lat otrzymamy odpowiedzi na te pytania, ale w tym czasie sztuczna inteligencja może stać się dużą częścią życia mojego 10-latka. Twoje pytanie jest niezwykle ważne. Istnieją badania pokazujące, że nawet niewinne systemy mogą mieć backdoory. Potrzebujemy dzisiaj, aby eksperci ds. bezpieczeństwa i specjaliści ds. rozwoju dzieci przeprowadzili takie rozmowy.

Dr Daumé: Nie wiem, czy ktoś pamięta Barbie z monitoringiem – mamy tu do czynienia z poważnym problemem związanym z prywatnością. To ciekawszy problem społeczny. Odpowiedzi uznano za nadmiernie pozytywne. Dzieci mówiły takie rzeczy, jak „Jestem wściekły, bo Sally się ze mną nie bawiła”, a to nie daje społecznie odpowiednich sugestii. Martwię się o bardzo pozytywne czynniki, ponieważ pozytywność nie zawsze jest właściwą odpowiedzią.

Dziękuję bardzo za przeczytanie i czekajcie na podsumowanie naszego trzeciego i ostatniego panelu na AAAS 2024.

spot_img

Najnowsza inteligencja

spot_img