제퍼넷 로고

AI 기반 교실에서 익명 및 식별되지 않은 데이터의 미묘한 차이를 탐색하는 방법 – EdSurge News

시간

정량적 연구 및 데이터 과학 책임자이자 Digital Promise의 데이터 개인정보 보호 책임자로서 저는 특히 교육 및 AI 도구 영역에서 데이터 개인정보 보호의 복잡한 세계를 이해하는 것을 목표로 합니다. 대학원 시절 IRB(기관 검토 위원회) 위원으로 활동을 시작한 이후 저는 데이터 사용에 관한 윤리적 원칙을 지키기 위해 최선을 다해 왔습니다. 벨몬트 보고서. 연구자들과 협력하여 그들의 작업이 이러한 원칙에 부합하는지 확인하는 것은 내 경력에서 보람 있는 부분이었습니다. 지난 XNUMX년 동안 저는 이 분야의 많은 사람들이 공유하는 과제인 익명 및 비식별 데이터의 미묘한 차이와 씨름해 왔습니다. 학생 데이터가 우리가 알고 있는 것보다 더 많이 수집되고 사용되는 시대에, 개인정보가 어떻게 유지되는지 이해하는 것은 학습자를 보호하는 데 중요합니다.

익명 대 식별되지 않음

XNUMXD덴탈의 교육부 정의 식별되지 않은 데이터 개인식별정보가 충분히 제거되거나 불명확하여 개인을 재식별할 수 없는 정보를 말합니다. 그러나 잠재적으로 데이터를 재식별할 수 있는 고유 식별자가 포함될 수 있습니다.

유사하게, 일반 데이터 보호 규정 (GDPR) 특징 짓다 익명의 데이터 식별되거나 식별 가능한 개인과 관련되지 않은 정보 또는 데이터 주체를 식별할 수 없을 정도로 익명으로 처리된 데이터입니다.

이러한 정의는 겉으로는 비슷해 보이지만 문헌과 연구에서는 명확성과 일관성이 부족한 경우가 많습니다. ㅏ 의학 출판물 검토 비식별화 또는 익명화를 논의하는 논문 중 절반 미만이 명확한 정의를 제공하고 있으며, 정의가 제공되면 서로 모순되는 경우가 자주 있는 것으로 나타났습니다. 잠재적으로 식별 가능한 정보가 충분히 제거되면 식별되지 않은 데이터는 익명화된 것으로 간주될 수 있습니다. HIPAA 데이터 비식별화 방법에서 제안된 대로. 반대로, 다른 사람들은 익명 데이터가 다음과 같은 데이터라고 주장합니다. 식별자는 수집되지 않았습니다., 이는 식별되지 않은 데이터가 결코 진정한 익명이 될 수 없음을 의미합니다.

데이터 개인정보 보호 단순화: 교육자를 위한 세 가지 주요 전략

AI 도구가 교실에서 많이 사용되면서 이러한 용어의 미묘한 차이에 압도되기 쉽습니다. 더욱이, 우리의 뉴스 피드에는 학생의 개인 정보 보호와 관련된 다음과 같은 대화가 넘쳐납니다. 부모는 데이터 개인 정보 보호에 대해 우려하고 있습니다., 교사들은 학생의 개인정보 보호에 대해 충분히 알지 못하는 것으로 알려졌습니다 대부분의 학군에는 여전히 데이터 개인 정보 보호 담당자가 부족합니다..

익명과 비식별의 차이가 크게 중요할 수 있는 시대에 교육자는 AI 도구를 통해 수집된 데이터에 대해 무엇을 해야 할까요? 나는 지나치게 단순화된 세 가지 전략을 제안합니다.

1. 물어보세요.

2020년에 Visual Capitalist는 14개 인기 앱의 작은 글씨 길이 시각화 그리고 평균적인 미국인은 온라인 서비스를 사용하면서 수락한 모든 디지털 계약을 읽는 데 거의 250시간을 할애해야 한다고 공유했습니다.

회사가 익명 또는 비식별 데이터를 수집하고 사용하는지 여부와 이를 정의하는 방법을 조사하는 데 시간을 낭비하고 싶지 않다면 언제든지 문의하실 수 있습니다. 이러한 질문의 몇 가지 예는 다음과 같습니다.

  • 어떤 데이터를 수집할 것인가?
  • 해당 데이터를 학생 자신에게 다시 연결할 수 있나요?
  • 데이터는 어떻게 사용되나요?
  • 학생이나 학부모/보호자가 자신의 데이터를 삭제하도록 요청할 수 있습니까?캘리포니아에 살고 있다면 대답은 '예'일 때가 많습니다.), 그들은 어떻게 그렇게 할 것입니까?

2. 학생들에게 선택권을 주세요.

벨몬트 보고서(Belmont Report)는 다음과 같이 명시하고 있습니다. 사람에 대한 존중 원칙적으로 개인에게는 자신에게 그리고 더 나아가 자신의 데이터에 어떤 일이 일어날지, 일어나지 않을지 선택할 수 있는 기회가 주어져야 합니다. 학생들에게 다음과 같은 기회를 제공합니다. 선택 가능할 때마다 데이터를 활용하는 AI 도구를 사용하려는지 여부는 이 중요한 윤리 표준을 유지하고 학생들이 기술이 풍부한 세계를 횡단할 때 자율성을 제공합니다.

3. 부모의 동의를 허용하십시오.

인간 존중 원칙을 좀 더 자세히 살펴보면 자율성이 감소된 개인은 보호받을 자격이 있음을 알 수 있습니다. 공통 규칙, 또는 미국의 윤리적 연구 과정을 설명하는 연방 규정에서는 아동이 아직 동의할 수 있는 법적 연령에 도달하지 않은 사람이며 이러한 보호를 받을 자격이 있는 많은 그룹 중 하나라고 명시하고 있습니다. 실제 적용에서 이는 참여를 위해서는 아동의 동의 외에 부모 또는 보호자의 허가가 필요함을 의미합니다.

가능한 한 최대한, 부모는 아동의 데이터가 수집되고 사용되는 것을 이해하고 동의할 수 있는 기회를 가져야 합니다.

뉘앙스를 함께 탐색해 봅시다

iPhone을 손목에 착용하기 전부터 학생들의 데이터를 가장 잘 보호할 수 있는 방법을 고민해 온 사람으로서 저는 제 경력을 이끌어온 윤리적 원칙을 가장 잘 유지하기 위해 정기적으로 다음 세 가지 전략을 사용합니다. 이해가 되지 않을 때는 묻고, 개인에게 자신의 선택과 데이터에 대한 자율성을 부여하려고 노력하며, 추가적인 보호가 필요할 때는 동의를 구합니다. 이 세 가지 관행이 교실에서 AI 사용에 대해 가질 수 있는 모든 두려움을 완화하지는 못하지만 학생들을 위해 더 나은 선택을 하는 데 필요한 정보를 수집할 수 있게 해줄 것이며 우리가 함께 미묘한 차이를 탐색할 수 있다고 확신합니다. !

spot_img

최신 인텔리전스

spot_img