제퍼넷 로고

데이터 윤리학자에게 물어보세요: 설명할 수 없는 AI를 신뢰할 수 있습니까? – 데이터 다양성

시간

지난 달 칼럼, 나는 독자들에게 데이터와 AI에 관한 "큰 질문"을 보내달라고 요청했습니다. 이번 달의 질문은 그 전화에 대한 답변 그 이상입니다! 이는 AI 도구와 설명 가능성에 대한 엄청난 신뢰 영역을 포괄합니다.

AI 도구가 어떻게 답변을 얻고 있는지 전혀 모르는 경우 AI 도구가 윤리적 결과를 제공하는지 어떻게 알 수 있습니까?

질문에 직접 답하기 전에 먼저 다루어야 할 몇 가지 중요한 사항이 있습니다.

AI는 하나의 것이 아니다

AI라는 우산 아래에는 컴퓨터 비전을 사용한 안면 인식 기술부터 추천 시스템, ChatGPT와 같은 대규모 언어 모델 챗봇 유형 도구에 이르기까지 다양한 기술이 판매되고 있습니다. 이러한 기술이 작동하는 구체적인 방식과 용도는 설명 가능성과 신뢰의 문제에 영향을 미칩니다. 일반적으로 머신러닝은 결과나 출력을 생성하기 위해 많은 데이터에서 패턴을 찾는 작업을 포함합니다. 해당 프로세스와 관련된 일반적인 윤리적 우려가 많이 있습니다. 그러나 문제를 완전히 해결하려면 어떤 AI 도구를 논의하고 있는지 최대한 구체적으로 설명해야 합니다.

맥락 속의 윤리

AI라는 용어와 유사하게 윤리는 광범위한 문제를 다루며 특정 상황에 따라 특정 윤리적 문제가 다소 두드러질 수 있습니다. 극단적인 예를 들자면, 대부분의 사람들은 삶과 죽음의 상황에서 자신의 프라이버시에 대해 덜 신경을 쓸 것입니다. 실종자 상황에서 가장 중요한 것은 그 사람을 찾는 것입니다. 여기에는 많은 개인 정보를 언론에 공개하는 것을 포함하여 가능한 모든 수단을 사용하여 찾을 수 있습니다. 그러나 실종자를 찾았을 때 상황에 대한 모든 홍보는 제거되어야 한다. 이제 윤리적 문제는 이야기가 피해자의 삶 전체를 따라다니지 않도록 하는 데 중점을 두고 있으며, 이로 인해 낙인이 생길 수 있습니다. 이 예에서 해야 할 윤리적인 일은 상황적 상황에 따라 완전히 달라집니다.

인간의 주체와 설명

개인이 자신의 선택의지를 행사하고 책임을 지기 위해서는 도덕적 행위자, 상황에 대해 어느 정도 이해하는 것이 중요합니다. 예를 들어, 은행이 대출을 거부하는 경우 해당 결정이 어떻게 내려졌는지에 대한 설명을 신청자에게 제공해야 합니다. 이를 통해 차별적이라고 입증될 수 있는 관련 없는 요인(파란색 양말 착용)이나 개인의 통제 범위를 벗어난 요인(인종, 연령, 성별 등)에 기반하지 않았는지 확인합니다. 설명은 설명을 요구하는 사람이 합리적이고 이해할 수 있어야 합니다. 따라서 일반인에게 고도의 기술적인 설명을 제공하는 것은 부적절할 것입니다. 설명에는 인간의 존엄성 측면도 있습니다. 사람을 존중한다는 것은 사람을 존엄하게 대하는 것을 의미합니다. 

신뢰의 요소

신뢰는 다면적입니다. 우리 사회는 기술 사용에 대한 신뢰를 높이는 데 도움이 되는 인프라를 구축했습니다. 예를 들어, 1850년대에는 엘리베이터가 신기술이었던 시절, 항상 안전하지는 않은 방식으로 설계되었습니다. 밧줄은 케이블로 사용되었기 때문에 닳거나 부러질 수 있었습니다. 시간이 지나면서 우리는 더 나은 디자인을 발견했고, 엘리베이터 운영을 감독하는 프로세스도 갖추었습니다. 정기적인 안전점검을 요구하는 법률이 있습니다. 안전 점검이 완료되었는지 어떻게 알 수 있나요? 우리는 규정 준수를 의무화하는 시스템을 신뢰합니다. 우리는 더 이상 작은 금속 상자 안으로 들어가기 전에 77층에 무사히 도착할 수 있을지 궁금해할 필요가 없습니다. 이 경우 신뢰는 신뢰할 수 있고 안전하게 설계된 기술과 적절한 감독 및 거버넌스 시스템의 구성입니다.

우리의 질문에…

이러한 요소를 염두에 두고 질문에 대해 자세히 살펴보겠습니다. 질문에 대한 매우 짧고 만족스럽지 못한 대답은 "우리는 확실히 알 수 없습니다."입니다. 그러나 보다 유용한 응답을 얻는 데 도움이 될 도구 및 컨텍스트에 대한 몇 가지 세부 사항을 작성해 보겠습니다.

우리가 최종 사용자이고 직장에서 프레젠테이션을 위한 콘텐츠를 만드는 데 생성 AI 도구를 사용하고 있다고 가정해 보겠습니다. 이러한 맥락에서 이 도구를 책임감 있게 사용할 수 있도록 올바른 선택을 하고 있는지 어떻게 확인할 수 있습니까?

그것이 만들어지는 방법의 윤리

최종 사용자로서 우리가 해결할 수 없는 생성 AI와 관련된 윤리적 문제가 있습니다. 대부분의 생성적 AI는 다음을 사용하여 만들어졌습니다. 의심스럽게 획득한 데이터 인터넷에서. 여기에는 편향되고 대표성이 없는 데이터가 포함됩니다. 또한 있다 노동 공급망 문제 와 환경 문제 대규모 언어 모델 훈련과 관련이 있습니다. 게다가 (현재) 가능하지 않습니다. 해석 가능성 – 대규모 언어 모델에 대한 자세한 기술적 이해. 일반인의 경우 대규모 언어 모델이 확률적 방법을 사용하여 그럴듯해 보이는 다음 단어를 결정하고, 답변이 정확하지 않더라도 항상 답변을 제공하는 것을 목표로 한다는 점을 이해하는 것만으로도 충분할 수 있습니다. 

최종 사용자로서 귀하는 이러한 윤리적 문제를 다루지 않을 것입니다. 당신이 할 수 있는 최선의 방법은 여전히 ​​도구를 사용할 것인지, 아니면 도구가 어떻게 만들어졌는지 알려주지 않을 것인지 결정하는 것입니다. 시간이 지남에 따라 일부 회사에서는 이러한 문제를 해결하는 더 나은, 보다 책임감 있게 개발된 도구를 설계하거나 규정에 따라 이러한 문제를 해결하도록 요구할 수 있기를 바랍니다. 

책임감 있는 AI 사용

계속 진행하기로 결정했다면 다음 단계는 결과에 대한 책임을 지는 것입니다. 이는 생성 AI가 아무것도 이해하지 못한다는 것을 의미합니다. 이 도구가 어떻게 "환각"하는지, 그리고 왜 이 도구를 다음과 같은 큰 위험에 사용해서는 안 되는지에 대한 많은 이야기가 있었습니다. 법률 업무. 이 정보를 고려할 때 생성 AI 도구를 어디에 사용하는 것이 합리적입니까? 아마도 브레인스토밍에 도움이 될 것입니다. 어쩌면 개요를 만들거나 첫 번째 초안을 작성하는 데 도움이 될 수도 있습니다. 

사용하기에 어느 정도 안전할 수 있는 생성 AI 간에도 차이점이 있습니다. 예를 들어, 비즈니스 범위 내에 배포된 엔터프라이즈 솔루션은 ChatGPT와 같은 공개 도구보다 더 많은 개인정보 보호 및 기타 보호 조치를 가질 가능성이 높습니다. 엔터프라이즈 도구를 사용하는 경우 회사의 IT 부서에 도구가 채택되기 전에 수행된 실사가 무엇인지 문의할 수 있습니다. (힌트: AI를 조달하는 경우 벤더에게 어려운 질문을 하고 실사를 해야 합니다!) 또한 회사는 다음을 수행해야 합니다. 정책 및 절차 기대에 따라 도구를 사용하기 위한 장소입니다.

출력을 다시 확인할 수도 있습니다. 다른 소스를 사용하여 정보를 확인할 수 있습니다. 이미지를 생성하는 경우 특정 프롬프트를 사용하여 표현의 다양성을 높일 수 있습니다. BE 고정관념을 알고 있다 시스템에 다음과 같은 이미지를 생성하도록 요청하지 않았는지 확인하세요. 저작권 보호

마지막으로, 이 작업에 관련된 이해관계는 무엇입니까? 내부 프리젠테이션용인가요, 아니면 생성된 콘텐츠가 전국 광고 캠페인에 사용되나요? 이해관계가 높을수록 더 많은 실사와 검토를 수행해야 합니다. 여기에는 큰 영향을 미칠 수 있는 사안에 대해 외부 이해관계자를 참여시키는 것도 포함됩니다.

질문을 보내주세요!

나는 것 애정 데이터 딜레마나 AI 윤리 관련 질문 및 난관에 대해 들어보세요. 다음 주소로 나에게 메모를 보내실 수 있습니다. hello@ethicallyalignedai.com 또는 에 나와 연결 링크드인. 모든 문의 사항은 기밀로 유지하고 잠재적으로 민감한 정보는 모두 제거하겠습니다. 따라서 높은 수준의 익명 정보도 자유롭게 유지해 주시기 바랍니다. 

spot_img

VC 카페

VC 카페

최신 인텔리전스

spot_img