Zephyrnet-Logo

Anlass für ein LLaMA? Meta geht davon aus, dass seine kleinere textausgebende KI besser ist als die der Konkurrenz

Datum:

In Kürze Meta veröffentlichte sein Large Language Model Meta AI, das gequält LLaMA genannt wird und verspricht, genauso gut, wenn nicht sogar besser zu funktionieren als ähnliche Systeme, die Milliarden von mehr Parametern enthalten.

Große Sprachmodelle liegen derzeit voll im Trend. Microsoft und Google, um nur zwei zu nennen, konkurrieren darum, die besten Modelle zu entwickeln, um ihre Suchmaschinen anzukurbeln. Diese Systeme sind universell einsetzbar und wurden nicht nur für die Websuche, sondern auch für die Untersuchung von Proteinen oder die Entdeckung von Medikamenten verwendet.

Diese Modelle sind rechenintensiv, was es für Entwickler schwierig und kostspielig macht, sie zu trainieren und auszuführen, und es für Forscher schwierig macht, diese Systeme zu untersuchen.

LLaMA ist jedoch kleiner und enthält bis zu 65 Milliarden Parameter, wodurch es möglicherweise einfacher zu verwenden ist. Es ist genauso leistungsfähig, wenn nicht sogar mehr, als andere führende Sprachmodelle, behauptete Metas Chief AI Scientist Yann LeCun. Er sagte, LLaMa sei genauso gut wie die größten Sprachmodelle, einschließlich Googles PaLM mit 540 Milliarden Parametern.

Und was andere Modelle betrifft, so argumentierte Meta, dass diese Systeme so gut wie außerhalb der Reichweite von Menschen gehalten werden, um sie richtig zu untersuchen und zu untersuchen, was das Verständnis, die Verbesserung und die Bewertung von Software für maschinelles Lernen behindert.

„Dieser eingeschränkte Zugang hat die Fähigkeit der Forscher eingeschränkt, zu verstehen, wie und warum diese großen Sprachmodelle funktionieren, und behindert den Fortschritt bei den Bemühungen, ihre Robustheit zu verbessern und bekannte Probleme wie Voreingenommenheit, Toxizität und das Potenzial zur Erzeugung von Fehlinformationen zu mindern“, Meta – which weiß alles über Toxizität und Fehlinformationen – sagte am Freitag. 

Meta plant stattdessen, seine Technologie den Menschen zum Lernen etwas zugänglicher zu machen; Es sagt, dass es sein Sprachmodell unter einer nicht-kommerziellen Lizenz an Entwickler für Forschungszwecke von Fall zu Fall freigeben wird. Sie können eine technische Abhandlung lesen hier über die Technik.

„Wir glauben, dass die gesamte KI-Community – akademische Forscher, die Zivilgesellschaft, politische Entscheidungsträger und die Industrie – zusammenarbeiten muss, um klare Richtlinien für verantwortungsvolle KI im Allgemeinen und verantwortungsvolle große Sprachmodelle im Besonderen zu entwickeln. Wir freuen uns darauf zu sehen, was die Community mit LLaMA lernen – und schließlich aufbauen – kann“, schloss Meta.

Der Entwickler der Lensa-KI-App wurde in einer BIPA-Sammelklage verklagt

Der Hersteller der viralen KI-Avatar-App Lensa hat gegen das Biometric Information and Privacy Act von Illinois verstoßen, indem er die Fotos von Personen ohne deren Zustimmung gesammelt und gespeichert hat, wie eine Sammelklage gegen das Geschäft behauptet.

Lensa AI schoss Ende letzten Jahres an die Spitze der App-Stores, als die Leute begannen, KI-generierte Bilder auf der Grundlage ihrer eigenen Selfies zu erstellen. Millionen haben die App heruntergeladen, um Magic Avatar zu verwenden, eine Funktion, die KI-Algorithmen verwendet, um Bilder zu erstellen, die die Gesichter von Menschen auf karikaturartige und farbenfrohe Weise darstellen.

Dies mag zwar wie ein harmloser Spaß erscheinen, aber eine Gruppe von Einwohnern des US-Bundesstaates Illinois Anspruch Das Unternehmen, das die App erstellt hat, Prisma Labs, sammelte und speicherte Bilder von seinen Benutzern ohne ausdrückliche Erlaubnis, um seine KI-Systeme zu trainieren. Um einen magischen Avatar zu erstellen, mussten die Leute dem Unternehmen nicht nur acht verschiedene Fotos geben, sondern auch Zugriff auf ihre gesamte Fotobibliothek.

„Die Kläger in dieser Klage und Millionen anderer wie sie haben unwissentlich ihre Gesichtsbiometrie an Prisma Labs übermittelt, als sie die Lensa-App heruntergeladen haben.“ sagte Tom Hanson, Anwalt bei Loevy & Loevy, der die Kläger vertritt. „Die Gesichtsgeometrie einer Person ist wie ihr Fingerabdruck: Sie ist eine unveränderliche, eindeutige Kennung, die den höchsten Schutz verdient, den das Gesetz bieten kann.“

Das Register hat Prisma Labs um einen Kommentar gebeten. 

Der Betrieb von Bing und Bard wird Microsoft und Google Milliarden kosten

KI-gestützte Such-Chatbots sind unglaublich teuer im Betrieb und werden Google und Microsoft wahrscheinlich Milliarden von Dollar an Rechenleistung kosten. MIPS-Chip-Pate John Hennessy, heute Vorsitzender von Googles Mutterkonzern Alphabet, sagte Reuters-Websuchoperationen mit diesen neuen Chatbots könnten zehnmal mehr kosten als eine Standardabfrage, die in einen Webbrowser eingegeben wird.

Analysten von Morgan Stanley schätzten, dass, wenn der kommende Bard-Chatbot von Google die Hälfte der 3.3 Billionen Suchanfragen verarbeiten würde, die das Unternehmen normalerweise in einem Jahr erhält, es das Unternehmen 6 Milliarden US-Dollar an Betriebskosten kosten würde, um 50-Wörter-Antworten auf jede Frage zu generieren. 

Auch Microsoft bekommt die Zwickmühle mit seinem neuen Bing-Modell zweifelsohne zu spüren. Die Finanzchefin des Unternehmens, Amy Hood, sagte jedoch, dass sich die Kosten lohnen, da Bing Benutzer und Werbeeinnahmen anzieht. „Das ist für uns eine zusätzliche Bruttomarge in Dollar, selbst zu den Kosten für die Bereitstellung, über die wir sprechen“, sagte sie.

Sprachbasiertes Bank-Login mit KI-geklontem Audio geknackt

Sicherheitsexperten läuten die Alarmglocken über die sprachbasierte Authentifizierung, die für den Zugriff auf private Konten verwendet wird, da KI jetzt überzeugend den Klang der Stimme einer Person klonen und sich in diese Profile einloggen kann. 

In einem Experiment gelangte der Vize-Reporter Joseph Cox in sein eigenes Online-Bankkonto, indem er Audioclips abspielte, die von einer KI-Software generiert wurden, die seine Stimme nachahmte, wie im folgenden Video gezeigt…

Er verschaffte sich Zugriff auf sein eigenes Konto, ohne tatsächlich seine echte Stimme zu verwenden, indem er Standardtechnologie verwendete. Es ist jetzt einfach und billig, die Stimmen von Menschen mit KI zu klonen, besonders wenn es viele Audio-Samples gibt, um die Software zu verfeinern. Prominente, Politiker und andere Persönlichkeiten des öffentlichen Lebens könnten auf diese Weise leichter ins Visier genommen werden.

Rachel Tobac, CEO des auf Social Engineering fokussierten Unternehmens SocialProof Security, sagte Vice's Motherboard: „Ich empfehle allen Organisationen, die die Sprachauthentifizierung nutzen, so schnell wie möglich zu einer sicheren Methode der Identitätsprüfung wie der Multi-Faktor-Authentifizierung zu wechseln.“ Sie warnte davor, dass Voice-Cloning-Angriffe „abgeschlossen werden können, ohne jemals mit der Person im wirklichen Leben interagieren zu müssen“.

KI-Chatbots versus Abschnitt 230

Die hochkarätigen USA Fall des Obersten Gerichtshofs of González gegen Google hat eine neue Frage aufgeworfen: Würden KI-Chatbots unter Amerika geschützt werden? Abschnitt 230 Gesetz?

Abschnitt 230 schützt Online-Plattformen in den allermeisten Fällen davor, für Inhalte, die von ihren Nutzern gepostet werden, rechtlich verantwortlich zu sein. Wenn ein Benutzer einem KI-Chatbot eine Frage stellt und dieser rechtlich fragwürdig antwortet, könnten seine Ersteller dann verklagt werden?

Richter Neil Gorsuch brachte dies zur Sprache während einer Anhörung für die laufende Gonzalez Fall. 

„Künstliche Intelligenz erzeugt Poesie“, sagte er. „Es erzeugt heute Polemik, die Inhalte wäre, die über das Auswählen, Auswählen, Analysieren oder Verdauen von Inhalten hinausgehen. Und das ist nicht geschützt. Nehmen wir an, das stimmt. Dann stellt sich die Frage: Was machen wir mit Empfehlungen?“

Der Fall geht weiter. ®

spot_img

Neueste Intelligenz

spot_img