제퍼넷 로고

생성 인공 지능의 새로운 윤리적 의미 – KDnuggets

시간

첨단 AI 환경이 발전하는 속도는 눈부시게 빠릅니다. 하지만 그에 따른 위험도 마찬가지입니다.

전문가들이 위험을 예측하기 어려운 상황이다.

대부분의 리더들이 점점 더 우선순위를 정하고 있지만 앞으로 몇 달 동안 GenAI 애플리케이션, 그들은 또한 데이터 보안 문제와 편향된 결과 등 그에 수반되는 위험에 대해 회의적입니다.

마크 수즈만빌 앤 멜린다 게이츠 재단(Bill & Melinda Gates Foundation)의 CEO인 는 "이 기술이 과학적 진보를 가속화하고 학습 결과를 향상시킬 수 있는 혁신을 가져올 수 있지만 기회에는 위험이 따릅니다."라고 믿습니다.

 

생성 인공 지능의 새로운 윤리적 의미
작성자 별 이미지

데이터부터 시작해보자

이를 고려하십시오. 유명한 Generative AI 모델 제작자는 다음과 같이 말합니다. 개인정보를 수집합니다 이름, 이메일 주소, 결제 정보 등 업무상 필요한 경우.”

최근에는 안내 프레임워크 없이는 잘못될 수 있는 여러 가지 방법이 나타났습니다. 

  • 이탈리아는 우려를 표명했다 사용자의 개인정보를 불법적으로 수집하는 것에 대해 “법적 근거가 없다 플랫폼 운영의 기본이 되는 알고리즘을 '훈련'하기 위해 개인 데이터의 대량 수집 및 저장을 정당화합니다.”
  • 일본 개인정보보호위원회도 경고를 내렸다. 머신러닝 모델을 훈련하기 위한 최소한의 데이터 수집을 위해.
  • 업계 리더 HBR 데이터 보안 문제와 편향된 결과 반영

Generative AI 모델은 거의 모든 인터넷의 데이터에 대해 훈련을 받았기 때문에 우리는 신경망 계층에 숨겨져 있는 극히 일부에 불과합니다. 이는 데이터 개인 정보 보호 규정을 준수해야 하며 동의 없이 사용자 데이터에 대한 모델을 훈련해서는 안 된다는 점을 강조합니다.

최근 한 회사는 인터넷에서 셀카를 스크랩하여 얼굴 인식 도구를 구축한 혐의로 벌금을 물었고, 이로 인해 개인 정보가 침해되고 막대한 벌금이 부과되었습니다.

 

생성 인공 지능의 새로운 윤리적 의미
출처: 테크 크런치
 

그러나 데이터 보안, 개인정보 보호, 편견은 모두 AI 생성 이전 시대부터 존재해 왔습니다. 그렇다면 제너레이티브 AI 애플리케이션이 출시되면서 어떤 변화가 생겼을까?

모델이 훈련되고 배포되는 규모를 고려할 때 일부 기존 위험은 더욱 위험해졌습니다. 방법을 이해합시다.

환각, 신속한 주사 및 투명성 부족

이러한 거대한 모델의 내부 작동을 이해하여 응답을 신뢰하는 것이 더욱 중요해졌습니다. Microsoft의 말에 따르면 이러한 새로운 위험은 LLM이 "사실의 정확성을 고수하기보다는 일관되고 상황에 맞게 나타나는 텍스트를 생성하도록 설계"되었기 때문입니다. 

결과적으로 모델은 일반적으로 환각이라고 불리는 오해의 소지가 있고 잘못된 반응을 생성할 수 있습니다. 모델이 예측에 대한 신뢰도가 부족하여 정확도가 떨어지거나 관련성이 없는 정보가 생성될 때 이러한 현상이 나타날 수 있습니다.

더욱이 프롬프트는 우리가 언어 모델과 상호 작용하는 방식입니다. 이제 악의적인 행위자는 프롬프트를 삽입하여 유해한 콘텐츠를 생성할 수 있습니다. 

AI가 잘못되었을 때 책임?

LLM을 사용하면 모든 AI 모델에 널리 퍼져 있는 것처럼 이러한 모델에서 생성된 출력과 편향된 출력에 대한 책임과 책임에 대한 윤리적 질문이 제기됩니다.

의료 부문과 같은 고위험 애플리케이션에서는 위험이 더욱 악화됩니다. 환자의 건강과 삶에 대한 잘못된 의학적 조언의 영향을 생각해 보십시오.

결론은 조직이 Generative AI를 개발하고 사용하는 윤리적이고 투명하며 책임감 있는 방법을 구축해야 한다는 것입니다.

Generative AI를 올바르게 구현하는 것이 누구의 책임인지 더 자세히 알고 싶다면 다음 내용을 읽어보세요. 이 게시물에 이는 우리 모두가 하나의 공동체로 함께 모여 이를 실현할 수 있는 방법을 설명합니다.

저작권 침해

이러한 대형 모델은 전 세계의 자료를 바탕으로 제작되었기 때문에 음악, 영상, 도서 등의 창작물을 소비했을 가능성이 높습니다.

저작권이 있는 데이터를 필요한 권한을 획득하지 않고 AI 모델 훈련에 사용하는 경우 허가, 신용 또는 보상 원작자가 저작권 침해를 당할 수 있으며 개발자가 심각한 법적 문제에 직면할 수 있습니다.

 

생성 인공 지능의 새로운 윤리적 의미
이미지 출처 : 검색 엔진 저널

딥페이크, 잘못된 정보 및 조작

대규모로 소란을 일으킬 가능성이 높은 것은 딥페이크입니다. 어떤 딥페이크 기능이 우리를 끌어들일 수 있는지 궁금하십니까?

텍스트, 이미지, 비디오 등의 합성 창작물입니다. 얼굴 모양을 디지털 방식으로 조작 심층적인 생성 방법을 통해.

결과? 괴롭힘, 잘못된 정보, 사기 전화, 복수 또는 사기 등은 번영하는 세상의 정의에 맞지 않습니다.

이 게시물은 AI가 양날의 검이라는 점을 모든 사람이 인식하도록 하기 위한 것입니다. AI는 중요한 계획에만 작용하는 마법이 아닙니다. 나쁜 배우들도 그것의 일부입니다.

바로 그곳이 바로 우리가 경비병을 키워야 하는 곳입니다.

다가오는 선거에서 정치인 중 한 사람의 탈퇴를 강조하는 가짜 비디오에 대한 최신 뉴스를 확인하세요.

동기는 무엇입니까? - 그렇게 생각 할수 있겠지. 글쎄요, 그러한 잘못된 정보는 순식간에 불처럼 퍼져서 선거 과정의 방향에 심각한 영향을 미침.

그렇다면 우리는 그러한 가짜 정보에 빠지지 않을 수 있는 방법이 있을까요?

다양한 방어선이 있습니다. 가장 기본적인 방어선부터 시작해 보겠습니다.

  • 주변에서 보는 모든 것에 대해 회의적이고 의심하십시오.
  • 모든 것을 액면 그대로 받아들이기보다는 “사실이 아닐 수도 있다”는 기본 모드로 전환하십시오. 간단히 말해서, 주변의 모든 것에 질문을 해보세요.
  • 여러 소스에서 잠재적으로 의심스러운 디지털 콘텐츠 확인

요슈아 벤지오(Yoshua Bengio), 스튜어트 러셀(Stuart Russell), 엘론 머스크(Elon Musk), 스티브 워즈니악(Steve Wozniak), 유발 노아 하라리(Yuval Noah Harari) 등 저명한 AI 연구자 및 업계 전문가들도 이러한 AI 시스템 개발을 중단할 것을 촉구하며 우려를 표명했습니다. 

제너레이티브 AI(Generative AI)의 능력에 필적하는 고급 AI를 구축하기 위한 경쟁이 빠르게 악화되어 통제 불능 상태에 빠질 수 있다는 큰 두려움이 있습니다. 

Microsoft 최근 가드레일과 콘텐츠 필터를 준수하는 한 AI 제품 구매자를 저작권 침해로부터 보호하겠다고 발표했습니다. 이는 상당한 안도감이며 제품 사용으로 인한 영향에 대해 책임을 지려는 올바른 의도를 보여줍니다. 이는 윤리적 프레임워크의 핵심 원칙 중 하나입니다.

이를 통해 저작자는 자신의 권리에 대한 통제권을 유지하고 창작물에 대한 공정한 보상을 받을 수 있습니다.

올바른 방향으로의 큰 진전입니다! 관건은 작가의 고민이 얼마나 해결됐는지 보는 것이다. 

지금까지 우리는 기술을 올바르게 만들기 위한 기술과 관련된 주요 윤리적 의미에 대해 논의했습니다. 그러나 이러한 기술 발전의 성공적인 활용으로 인해 발생하는 문제는 일자리 대체의 위험입니다.

AI가 우리 업무의 대부분을 대체할 것이라는 두려움을 심어주는 정서가 있습니다. Mckinsey는 최근 업무의 미래가 어떤 모습일지에 대한 보고서를 공유했습니다. 

이 주제는 우리가 일에 대해 생각하는 방식의 구조적 변화를 요구하므로 별도의 게시물을 올릴 가치가 있습니다. 따라서 GenAI 시대에 생존하고 성공하는 데 도움이 될 수 있는 업무의 미래와 기술에 대해 논의할 다음 게시물을 계속 지켜봐 주시기 바랍니다!
 
 

비디 추 확장 가능한 기계 학습 시스템을 구축하기 위해 제품, 과학 및 엔지니어링의 교차점에서 일하는 AI 전략가이자 디지털 혁신 리더입니다. 그녀는 수상 경력이 있는 혁신 리더이자 작가이자 국제 연사입니다. 그녀는 기계 학습을 민주화하고 모든 사람이 이 변화의 일부가 될 수 있도록 전문 용어를 깨는 임무를 수행하고 있습니다.

spot_img

최신 인텔리전스

spot_img