Zephyrnet-logo

Het AI Executive Order van president Biden zal AI op scholen niet oplossen, maar het is een begin

Datum:

Nadat president Joe Biden onlangs zijn ingrijpende uitvoerende bevel over AI had uitgevaardigd, werd er veel gesproken over hoe snel het bevel tot stand kwam. AI-technologie versnelt ‘met warpsnelheid’ zei Biden voordat hij het bevel ondertekende. ‘Biden wil snel handelen op het gebied van AI-waarborgen’ lees een kop over de verklaring. 

Als docent die zich in de frontlinie bevindt van de impact van AI in de klas, is niets van de nationale of lokale reactie op AI snel gebleken. 

ChatGPT debuteerde deze maand een jaar geleden. Zelfs daarvoor was de kracht van GPT en vergelijkbare technologie al duidelijk. Toch is de reactie op AI in het onderwijs de afgelopen twaalf maanden gefragmenteerd en onduidelijk geweest. Over het algemeen lijken leiders uit districten en hoger onderwijs nog steeds niet zeker te weten hoe ze met deze nieuwe technologie moeten omgaan. Bij gebrek aan duidelijke institutionele begeleiding zijn veel docenten aan hun lot overgelaten om hun eigen AI-beleid op te stellen, per klas en per leerling. 

Het is niet verrassend dat dit niet bijzonder goed is verlopen. Aan de ene kant hebben we overijverige instructeurs gezien leerlingen ten onrechte straffenEn aan de andere kant is het naïef om te denken dat een ‘niets doen’-aanpak van AI werkt.

Het uitvoeringsbesluit van Biden is niet bedoeld om de hiaten in het AI-beleid op scholen aan te pakken, en we willen ook niet dat gekozen functionarissen het onderwijsbeleid dicteren. Het vestigt echter wel de aandacht op zowel de mogelijkheden voor AI op scholen als op enkele van de uitdagingen en zorgen daaromheen. 

Dit alleen al is een enorme stap in de goede richting. Leraren hebben specifieke richtlijnen nodig over de beste onderwijspraktijken op het gebied van AI en instrumenten ter voorkoming van fraude, evenals veiligheidsprocedures voor leerlingen die met deze technologie omgaan. AI-docenten, AI-detectoren en nog veel meer aspecten van de technologie moeten rigoureus worden getest en bestudeerd in een onderwijsomgeving. Het uitvoerend bevel van Biden markeert de eerste kleine stap om dat allemaal te doen. 

Watermerken AI aanbevelen

Het bevel van Biden roept het ministerie van Handel op om richtlijnen te ontwikkelen voor het duidelijk labelen van AI-inhoud via een ingebed watermerk in alle door AI gegenereerde inhoud, inclusief video, afbeeldingen en tekst. Het idee is dat deze watermerken het voor mensen gemakkelijk zullen maken om onderscheid te maken tussen door AI gemaakte inhoud en door mensen gemaakt werk. 

Op papier lijkt dit erop dat het veel van de problemen zal oplossen die momenteel door AI in klaslokalen worden veroorzaakt, door een eenvoudige manier te bieden om te controleren op door AI gegenereerde inhoud. In de praktijk is dit echter ingewikkelder. 

Biden eist niet van bedrijven dat ze watermerken toevoegen, maar beveelt het alleen aan. Het is dus heel goed mogelijk dat studenten AI kunnen blijven gebruiken om watermerkvrije inhoud te genereren. Belangrijker nog is dat de watermerktechnologie verre van perfect is. Net als bij bestaan AI-detectietools, uit onderzoek blijkt watermerkdetectoren kunnen worden misleid en produceren grote aantallen vals-positieven en -negatieven. 

Toch denk ik dat het bemoedigend is dat het Witte Huis middelen besteedt aan het bestuderen van de beste methoden voor het effectief identificeren van door mensen en machines gegenereerd werk. Dit voelt van vitaal belang in het onderwijs en daarbuiten. 

AI-klasbegeleiding 

Het uitvoeringsbesluit vereist dat de minister van Onderwijs AI-middelen en beleidsrichtlijnen met betrekking tot AI creëert. 

“Deze middelen zullen zich richten op veilig, verantwoord en niet-discriminerend gebruik van AI in het onderwijs, inclusief de impact die AI-systemen hebben op kwetsbare en achtergestelde gemeenschappen.” luidt het uitvoeringsbesluit. “Ze zullen ook de ontwikkeling omvatten van een ‘AI-toolkit’ voor onderwijsleiders.” 

Het besluit erkent echter ook de potentiële voordelen die AI heeft voor het onderwijs, en roept op tot het creëren van middelen om het gebruik van AI-instrumenten door docenten te ondersteunen, waaronder gepersonaliseerde AI-docenten. 

Ik ben enthousiast over dit aspect van de opdracht en zou graag zien dat er meer nationale aandacht en middelen beschikbaar komen voor het ontwikkelen en testen van AI-docenten. Nogmaals, theoretisch gezien zouden deze ongelooflijk nuttig lijken voor docenten die zo weinig tijd hebben, maar we moeten zien hoe goed ze presteren in de echte wereld. 

Privacy en bescherming  

Het uitvoeringsbesluit benadrukt de veiligheid van AI in het algemeen en het veilige gebruik van AI op scholen in het bijzonder. Het vereist ook dat AI-ontwikkelaars de resultaten van veiligheidstests met de overheid delen. 

Een ontwerprichtlijn die kort na de ondertekening aan federale instanties werd vrijgegeven, identificeert veel AI-toepassingen die burgerrechten en veiligheidsrisico's voor studenten in evenwicht brengen. Deze omvatten tools die bedrog door studenten detecteren, online activiteiten monitoren, academische resultaten projecteren of disciplinaire aanbevelingen doen, evenals online of persoonlijke surveillance-tools. 

In zijn opmerkingen voordat hij het uitvoeringsbesluit ondertekende, benadrukte Biden enkele van de mogelijke manieren waarop AI schadelijk kan zijn voor studenten. “In sommige gevallen maakt AI het leven erger”, zei hij. “Door bijvoorbeeld de persoonlijke gegevens van tieners te gebruiken om erachter te komen wat hen aan hun apparaat gekluisterd houdt, maakt AI sociale media verslavend. Het veroorzaakt wat onze Surgeon General een ‘diepgaand risico op schade’ noemt voor hun geestelijke gezondheid en welzijn.” 

spot_img

VC Café

LifeSciVC

Laatste intelligentie

VC Café

LifeSciVC

spot_img