Zephyrnet-Logo

KI und das Gesetz: Ein Anwalt erklärt die Risiken für Unternehmen – Mass Tech Leadership Council

Datum:

Ein auf Datenschutz spezialisierter Anwalt geht durch die KI-Risikolandschaft.

Der rasante Fortschritt der KI führt zu großer Verwirrung in der Geschäftswelt. Aber Verwirrung ist nicht unbedingt eine schlechte Sache. Wenn es auf echte Neugier und den Wunsch zu verstehen stößt, kann es sich in Weisheit verwandeln.

Chris Hart, Partner der in Boston ansässigen Anwaltskanzlei Foley Hoag, versteht das gut. Als Co-Vorsitzender der Datenschutzgruppe des Unternehmens berät Hart Geschäftskunden bei der Einhaltung gesetzlicher Vorschriften und hilft ihnen dabei, Risiken zu erkennen und Richtlinien zur Vermeidung rechtlicher Probleme einzuführen.

Kürzlich sprach Hart zusammen mit zwei Mitgliedern des Institute for Experiential AI (Matthew Sample, einem KI-Ethiker, und Cansu Canca, Direktorin von Verantwortungsvolle KI-Praxis) bei einer Veranstaltung der Führungsrat für Massentechnologie. Die Veranstaltung, die eine vielfältige Gruppe von Teilnehmern anzog, sollte Unternehmen dabei helfen, zu verstehen, wie sie ihre Abläufe mit KI optimieren können.

Rechtliche Gefahr

Ein weit verbreitetes Missverständnis ist, dass KI unreguliert sei. Obwohl es nicht viele KI-spezifische Gesetze gibt, gibt es zahlreiche Gesetze, die für KI-Technologien gelten. Ein Teil von Harts Aufgabe besteht darin, Mandanten über die Risiken im Zusammenhang mit diesen Gesetzen zu beraten, mit denen Mandanten möglicherweise nicht vertraut sind. Der erste Schritt sei, erklärt er, eine Unterscheidung zu treffen: Sprechen wir über KI-Systeme, die sich derzeit in der Entwicklung befinden, oder über Drittsysteme, die Unternehmen nutzen?

„Eines der Dinge, die bei großen Sprachmodellen, die inzwischen ziemlich allgegenwärtig für Arbeitszwecke verwendet werden, deutlich geworden ist, ist, dass unabhängig von ihrem Nutzen Bedenken hinsichtlich der Privatsphäre ihrer Eingaben bestehen könnten“, sagt Hart. „Sie sollten wirklich vorsichtig sein und keine vertraulichen Informationen für Anwaltskanzleien, keine privilegierten Informationen oder sensible Informationen preisgeben, die dann als Schulungsdaten verwendet und versehentlich offengelegt werden könnten.“

Es gibt auch Bedenken hinsichtlich des geistigen Eigentums, insbesondere im Fall der generativen KI, die zu einer Flut von Urheberrechtsklagen gegen KI-Unternehmen geführt haben. Am bekanntesten ist die New York Times Klage eingereicht gegen OpenAI; Getty Images verklagt Stabile Diffusion; und eine Gruppe von Autoren, darunter John Grisham, Jodi Picoult und George RR Martin verklagt OpenAI für „systematischen Diebstahl im Massenmaßstab“.

Es bleibt abzuwarten, wie sich diese Klagen auswirken werden, aber der Schaden für die beteiligten Unternehmen ist kaum zu unterschätzen, und die Lehre ist klar: Unternehmen, die KI einsetzen – insbesondere diejenigen, die neue Tools entwickeln – müssen vorsichtig vorgehen.

„Inwieweit wird dieses Tool negative Entscheidungen für Unternehmen treffen?“ fragt Hart. „Liegt da eine Voreingenommenheit vor oder könnte es eine geben? Wie schützt man sich davor in der Engineering-Phase? Wie überprüfen Sie den gesamten Prozess, nachdem Sie ihn zusammengestellt haben, um sicherzustellen, dass Sie die Probleme beheben können?“

Neue Perspektiven

Dies sind schwierige Fragen, deren Antworten von bestimmten Anwendungsfällen abhängen. Sie weisen auch darauf hin, wie wichtig es ist, in jeder Entwicklungs- und Bereitstellungsphase ein Rahmenwerk für verantwortungsvolle KI (Responsible AI, RAI) zu schaffen. Es scheint, dass der Erfolg in der KI zunehmend davon abhängt, inwieweit Unternehmen einen multidisziplinären Ansatz verfolgen können.

Deshalb ist die Institut für experimentelle KI In ihren Reihen sind sowohl Ingenieure als auch Philosophen, Anwälte, Ökonomen und mehr vertreten. Aus diesem Grund sind sowohl das Institut als auch Foley Hoag Mitglieder des Mass Technology Leadership Council (MTLC), einem Technologieverband, der Führungskräfte mit „verschiedenen Perspektiven“ zusammenbringt, um dringende rechtliche und wirtschaftliche Herausforderungen zu lösen.

„Man braucht Leute, die die Technologie verstehen“, sagt Hart. „Man muss die Ingenieure einbeziehen, aber man muss auch die Rechtsabteilung einbeziehen. Man braucht Leute, die die Sache aus verschiedenen Perspektiven betrachten und bereit sind, kritisch darüber nachzudenken, wofür die Technologie entwickelt wurde und ob sie bekannte oder unbeabsichtigte negative Folgen haben kann.“

Geduld ist eine Tugend

Bei all dem KI-Hype vergisst man leicht, wie wichtig Geduld ist. Die Dinge entwickeln sich schnell, und daher befürchten Unternehmen verständlicherweise, dass sie ihren Wettbewerbsvorteil verlieren, wenn sie nicht „schnell handeln und Dinge kaputt machen“. Hart plädiert für einen umsichtigeren Ansatz.

„Einige Unternehmen waren gezwungen, früher als beabsichtigt auf den Markt zu kommen, weil ChatGPT alles in die Luft gesprengt hat“, erklärt Hart. „Organisationen sollten sorgfältig abwägen, wie ausgereift ihre KI-Anbieter sind, insbesondere da sie verstehen müssen, was mit ihren Daten passiert.“

Einerseits sagen Experten, dass KI revolutionär vielversprechend sei. Von der generativen KI bis zur medizinischen Diagnostik lässt sich die Bandbreite ihres Potenzials nicht so einfach auf einen einzigen Pitch reduzieren. Andererseits erfordert solch eine rohe Vorhersagekraft nicht nur Geduld, sondern auch Perspektive. Nur wenige Unternehmen sind in der Lage, sich alleine in dieser neuen Landschaft zurechtzufinden.

Um zu lernen wie das Institut für experimentelle KI– mit seinem Kader aus KI-Ingenieuren, Akademikern und Praktikern – kann Ihrem Unternehmen dabei helfen, sich in diesen schwierigen Gewässern zurechtzufinden. Klicke hier.

spot_img

Neueste Intelligenz

spot_img