Zephyrnet-Logo

OpenAI CEO über KI-Sicherheitsbedenken und die Wahrheit über die Entwicklung von ChatGPT-5

Datum:

OpenAI CEO Sam Altman sprach kürzlich Bedenken hinsichtlich der Entwicklung der nächsten Iteration von an ChatGPT.

Sam Altman ist ein bekannter Unternehmer und Investor im Silicon Valley. 2005 war er Mitbegründer der standortbezogenen Social-Networking-App Loopt, die später von der Green Dot Corporation übernommen wurde. Von 2014 bis 2019 war er auch Präsident des Startup-Accelerators Y Combinator, wo er eng mit einer Vielzahl von Startups zusammenarbeitete und die Richtung der Technologiebranche mitgestaltete. Altman ist bekannt für seine unverblümten Ansichten zur Zukunft der Technologie, einschließlich seines Eintretens für ein universelles Grundeinkommen und seines Glaubens an das Potenzial künstlicher Intelligenz, die Gesellschaft zu verändern. Er ist ein aktiver Investor in verschiedene Startups, mit besonderem Fokus auf Unternehmen, die an Spitzentechnologien wie autonomen Fahrzeugen und Blockchain arbeiten.

Gemäß einer Artikel von James Vincent für The Verge, der am 14. April veröffentlicht wurde, bestätigte OpenAI-CEO und -Mitbegründer Sam Altman am 13. April, dass sein Unternehmen derzeit nicht GPT-5 schult, den mutmaßlichen Nachfolger seines KI-Sprachmodells GPT-4, das in veröffentlicht wurde Marsch. Altmans Kommentare wurden während der „Future of Business with AI“ gemacht Event, die am stattfand Tagungszentrum Samberg am MIT, wo er an sprach offenen Brief in der Tech-Welt kursieren und Labore wie OpenAI auffordern, die Entwicklung von KI-Systemen zu unterbrechen, die „leistungsstärker als GPT-4“ sind.

Wie Sie sich vielleicht erinnern, wurde der offene Brief von der veröffentlicht Institut für Zukunft des Lebens am 29. März, und es trug den Titel „Pause Giant AI Experiments: An Open Letter“. Es forderte einen vorübergehenden Stopp der Entwicklung leistungsstarker KI-Systeme wie GPT-4, was eine Debatte innerhalb der Tech-Community auslöst.

In dem offenen Brief heißt es: „Leistungsstarke KI-Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Wirkung positiv und ihre Risiken überschaubar sind.“ Die Autoren forderten eine öffentliche und überprüfbare Pause von mindestens sechs Monaten beim Training von KI-Systemen, die leistungsfähiger als GPT-4 sind. Sie forderten die KI-Labore außerdem auf, gemeinsame Sicherheitsprotokolle zu entwickeln, um das sichere Design und die sichere Entwicklung von KI-Systemen zu gewährleisten.

<!–

Nicht in Gebrauch

-> <!–

Nicht in Gebrauch

->

Zu den bemerkenswerten Unterzeichnern des offenen Briefes gehörten Elon Musk, CEO von SpaceX, Tesla und Twitter; Steve Wozniak, Mitbegründer von Apple; Bill Gates, Mitbegründer von Microsoft; und Gary Marcus, KI-Forscher und emeritierter Professor an der New York University.

Altman sagte, dass dem Brief „die meisten technischen Nuancen fehlten, wo wir die Pause brauchen“, und stellte klar, dass OpenAI GPT-5 derzeit nicht trainiert und dies für einige Zeit nicht tun wird. Altman bemerkte: „Wir sind es nicht und werden es für einige Zeit nicht tun. Insofern war es irgendwie albern.“ Er betonte jedoch, dass OpenAI an anderen Aspekten von GPT-4 arbeite und die Auswirkungen solcher Arbeiten auf die Sicherheit erwäge. Altman erklärte: „Wir machen andere Dinge zusätzlich zu GPT-4, von denen ich denke, dass sie alle möglichen Sicherheitsprobleme haben, die es zu beachten gilt und die in dem Schreiben völlig ausgelassen wurden.“

[Eingebetteten Inhalt]

The Verge stellt fest, dass die Debatte über KI-Sicherheit durch die Schwierigkeit herausgefordert wird, Fortschritte zu messen und zu verfolgen. Vincent weist auf den Trugschluss von Versionsnummern hin, bei denen angenommen wird, dass nummerierte technische Updates eindeutige und lineare Leistungsverbesserungen widerspiegeln, ein Missverständnis, das in der Welt der Verbrauchertechnologie genährt wird. Diese Logik wird oft auf Systeme wie die Sprachmodelle von OpenAI angewendet, was zu Verwirrung und potenziellen Fehlinformationen führt.

Vincent argumentiert, dass Altmans Bestätigung, dass OpenAI GPT-5 derzeit nicht entwickelt, möglicherweise kein Trost für diejenigen ist, die sich Sorgen um die KI-Sicherheit machen, da das Unternehmen das Potenzial von GPT-4 immer noch erweitert und andere in der Branche ähnlich ehrgeizige Tools entwickeln.

Abschließend schreibt Vincent: „Selbst wenn die Regierungen der Welt irgendwie in der Lage waren, ein Verbot neuer KI-Entwicklungen durchzusetzen, ist klar, dass die Gesellschaft mit den derzeit verfügbaren Systemen alle Hände voll zu tun hat. Sicher, GPT-5 kommt noch nicht, aber spielt es eine Rolle, wenn GPT-4 immer noch nicht vollständig verstanden wird?“

spot_img

Neueste Intelligenz

spot_img