Zephyrnet-logo

Reflecties vanuit ethiek en veiligheid 'on the ground' bij DeepMind

Datum:

Boxi deelt hun ervaringen met het werken als programmaspecialist in het ethiek- en maatschappijteam om ethische, veilige en heilzame AI-ontwikkeling te ondersteunen, waarbij het belang van interdisciplinair en sociotechnisch denken wordt benadrukt.

Wat leidde je naar DeepMind?

Ik ben opgegroeid in een buitenwijk van Perth, Australië, en herinner me nog dat ik in mijn vroege tienerjaren voor het eerst internet gebruikte in de plaatselijke bibliotheek om onderzoek te doen naar het Great Barrier Reef. Terugkijkend had ik nooit de rol kunnen bedenken die ik nu heb! 

Ik was altijd gefascineerd door hoe sociale systemen konden interageren met technologie, wat er uiteindelijk toe leidde dat ik politieke wetenschappen en stadsplanning aan de universiteit ging studeren. Ik ging aan de slag in stedelijk beleidsonderzoek en strategieadvies, en een paar jaar later nam ik de ontmoedigende beslissing om van Australië naar Londen te verhuizen om voor een startup op het gebied van gezondheidstechnologie te werken. Het zien van de implementatie-uitdagingen van AI in de geneeskunde wekte mijn interesse in de ethische en maatschappelijke effecten van AI. Toen de mogelijkheid om voor DeepMind te solliciteren zich voordeed, was het voor mij heel logisch - een mix van het academische onderzoek dat ik miste, en de opwindende energie van een startup.

Hoe zou je de cultuur bij DeepMind omschrijven? En je team?

De cultuur van DeepMind is er een waar veel perspectieven botsen en er zijn talloze kansen om uw gemeenschap te vinden. In veel gevallen gebeurt dit formeel – ik ben lid geworden van personeelsgroepen zoals QueerMinds en de People of Color Employee Group, en heb de kans gehad om conferenties bij te wonen zoals Lesbians Who Tech. ik maak ook deel uit van Vreemd in AI, een organisatie met een missie om het bewustzijn van queer-kwesties in AI/ML te vergroten, een gemeenschap van queer-onderzoekers te bevorderen en het werk van queer-wetenschappers te vieren. DeepMind organiseert op woensdag 6 juli een workshop met Queer in AI om de relatie tussen queerkwesties en AI te bespreken. Sinds ik lid ben geworden, heb ik een aantal geweldige connecties gemaakt met een kring van queer- en POC-collega's, waaronder we veilige ruimtes creëren en elkaars werk ondersteunen. Deze interacties hebben nog meer de moeite waard gevoeld nu we weer op kantoor zijn.

Mijn team (het team Ethiek & Samenleving) is druk en hecht. Samen begeleiden we de verantwoorde ontwikkeling en inzet van AI. Een kernelement hiervan is het ontwikkelen van de processen, infrastructuur en kaders om ervoor te zorgen dat ethische overwegingen worden ingebed in al onze projecten. We werken vaak gedurende langere perioden samen met andere teams bij DeepMind om de positieve en negatieve downstream-effecten van ons werk te overwegen, dwz ons werk met taalmodellen of wetenschappelijke projecten zoals AlphaFold. 

Als team leren we constant bij, praten we met elkaar over onze projecten en de uitdagingen waar we voor staan. Dit vereist veel reflectie om volledig te begrijpen op wie onze technologie invloed kan hebben en om te bepalen wie de juiste mensen zijn (intern en extern) om de geïdentificeerde uitdagingen te helpen aanpakken. Dit kan soms ongelooflijk complex zijn, maar het is erg leuk.

Hoe ziet een typische dag eruit?

Ik leid onze onderzoekssamenwerkingen die ethiek en veiligheid operationaliseren in ons werk bij DeepMind. Dit omvat normaal gesproken het uitvoeren van ethische impactbeoordelingen, het samenwerken met teams om ethische beoordelingen uit te voeren en het faciliteren van workshops om na te denken over voordelen, risico's en risicobeperkingen.

Omdat we in verschillende onderzoeksgebieden werken (bijv. Taal, versterkend leren, robotica), zijn we altijd in gesprek met experts op het gebied van onderzoek, engineering, juridische zaken, beleid en communicatie, enz. We komen ook dagelijks als een team bijeen - dit is super belangrijk in ons werkgebied, omdat ethische en veiligheidsvragen het beste in groepen kunnen worden besproken (bijvoorbeeld om persoonlijke vooroordelen te controleren en meningsverschillen te bespreken).

Wat maakt je het meest enthousiast over je rol?

Ik leer graag van de mensen om me heen - intern en binnen de bredere AI-ethiekgemeenschap. Er is nog zoveel meer te leren en ik voel me nederig door de kennis en nieuwsgierigheid van iedereen met wie ik spreek. Wat ik vooral interessant vind, is leren van degenen die grenzen aan of buiten traditionele AI/ML-onderzoeksgebieden. Als we de perspectieven van bijvoorbeeld sociale wetenschappen, filosofie of kritische theorie beter begrijpen, kunnen we de fundamentele waarden die ten grondslag liggen aan technologie beter identificeren en uitdagen.

Een goed voorbeeld hiervan zou dit jaar zijn ACM-conferentie over eerlijkheid, verantwoording en transparantie (FAccT) in Zuid-Korea. De agenda van deze conferentie was verreikend en omvatte alles van mijn collega's. papier over vloeiende identiteit in machine learning, tot een sessie met Youjin Kong over AI-ethiek en feministische filosofie, en een keynote van Karen Hao over journalistiek over AI-ethiek en technologie.

FAccT, Zuid-Korea.
Waarom is dit werkgebied zo belangrijk?

In een recente blogpost, besprak onze COO Lila het idee van baanbrekende verantwoordelijkheid en de sleutelrol ervan in onze missie. Ik denk dat dat precies klopt - het is niet alleen van cruciaal belang voor de bredere technische gemeenschap, maar het is vooral belangrijk als het gaat om het creëren van krachtige, wijdverbreide technologieën zoals kunstmatige intelligentie. Het moet in elke fase deel uitmaken van het gesprek en ingebed zijn in alles wat we doen.

Ik ben er trots op dat ik deel uitmaak van een team dat deze ideeën mag verkennen – en hoewel we natuurlijk veel meer te doen hebben op dit gebied, geloof ik echt dat we een positieve impact hebben op de wereld om ons heen. 

Tips voor iemand die een soortgelijke rol wil spelen? 

Lees zoveel als je kunt over AI-ethiek en veiligheid, en beter nog, verken sociotechnisch werk dat de geschiedenis van AI, de huidige schade van technologie in de samenleving en visies over hoe veilige en ethische AI ​​eruit zou kunnen zien, bespreekt. Enkele favorieten van mij zijn die van Ruha Benjamin Race na technologie en Karen Hao's recente serie over AI en kolonialisme. Ik zou ook aanraden om Kevin Guyan's te bekijken? Queergegevens: gegevens over geslacht, geslacht en seksualiteit gebruiken voor actie, en mijn collega's schrijven op algoritmische eerlijkheid voor de homogemeenschap.

Ten slotte wil ik 'niet-technische' of meer sociaalwetenschappelijk georiënteerde mensen geruststellen dat deze ruimte voor jou is. Ik hoor vaak van mensen dat ze zich geïntimideerd voelen door AI/ML ondanks interesse in technologie en ethiek. U kunt er zeker van zijn dat uw perspectief waardevol zal zijn voor deze branche - onze waarden beïnvloeden technologie, net als technologie ons sociale leven. Het aanpakken van de uitdagingen van AI-ontwikkeling vereist interdisciplinair en sociotechnisch denken en mensen uit alle lagen van de bevolking. Twijfel niet aan jezelf - ga ervoor!

spot_img

Laatste intelligentie

spot_img