제퍼넷 로고

도움이 되는 조수, 로맨틱 파트너 또는 사기꾼? 제 1부 » CCC 블로그

시간

CCC는 올해 AAAS 연례 회의에서 세 가지 과학 세션을 지원했으며, 직접 참석하지 못한 경우 각 세션을 요약해 드리겠습니다. 이번 주에는 세션의 패널리스트 프레젠테이션의 하이라이트를 요약하겠습니다.대규모 언어 모델: 도움이 되는 조수, 로맨틱 파트너 또는 사기꾼?” 이 패널은 마리아 지니 박사, CCC 위원회 회원이자 미네소타 대학의 컴퓨터 과학 및 공학 교수가 특집으로 출연했습니다. 에세 카마르 박사, Microsoft Research의 AI Frontiers 전무이사, 할 도메 3세 박사, 메릴랜드 대학교 컴퓨터 과학 교수, 조나단 메이 박사, 서던 캘리포니아 대학 정보 과학 연구소의 컴퓨터 과학 교수.

대형 언어 모델은 오늘날 사회 대화의 최전선에 있으며, 심사위원단은 모델을 둘러싼 과대광고에 부응하는지 여부를 판단합니다. 이번 AAAS 세션의 패널리스트들은 LLM의 가능성, 과제 및 잠재력에 대해 논의했습니다.

첫 번째 패널리스트는 Dr. Ece Kamar(Microsoft Research)였습니다. 그녀는 AI의 현재 상태를 '단계 전환'이라고 설명했습니다. 그녀는 업계에서 AI의 변화를 목격한 사람으로서 독특한 관점을 제공했으며, 딥 러닝 모델의 기하급수적인 성장은 2024년까지 계속될 것으로 예상한 사람이 거의 없었습니다.

이러한 성장은 LLM이 훈련하는 데이터 양의 증가와 변환기라고 하는 더 큰 아키텍처로 인해 발생했습니다. 그래프에서 Kamar 박사가 공유한 흥미로운 통찰력은 모델이 처음에는 특정 작업에 대해 훈련되었기 때문에 모델이 매우 빠르게 확장되고 있다는 것입니다. 안정적으로 수행할 수 있는 작업입니다. ChatGPT는 모델이 고려하는 매개변수 수를 포함하여 충분히 크게 확장하면 모델이 특히 동일한 작업을 완료하도록 훈련된 모델과 유사한 성능으로 작업을 완료하기 시작할 수 있음을 보여주었습니다.

이것이 LLM 단계 전환의 정의입니다. 모델은 더 이상 특정 작업을 위해 특별히 훈련할 필요가 없지만 일반적으로 훈련을 받은 후 많은 작업을 수행할 수 있습니다. 그리고 이러한 역량의 성장이 둔화되고 있다는 징후는 없습니다.

Kamar 박사는 GPT-4에 조기에 액세스했으며 오랜 시간 테스트하는 동안 규모와 데이터를 통해 제공되는 상당한 개선과 다양한 작업을 동시에 수행할 수 있다는 사실에 깊은 인상을 받았습니다.

이 LLM의 미래는 어떻게 될까요? Kamar 박사는 LLM이 인간의 언어를 넘어 기계어를 배우고 두 언어 간 번역이 가능할 것으로 기대합니다. 이는 입력 및 출력의 양식 기능을 향상시켜 모델이 언어를 생성할 수 있을 뿐만 아니라 행동의 행동과 예측을 가능하게 할 수 있습니다.

다음으로 Kamar 박사는 컴퓨팅에서 발생하는 중요한 단계 전환에 대해 자세히 설명했습니다. 오늘날 시스템은 매우 다르게 개발되고 있으며, 이를 위해서는 현재 표면적인 부분만 살펴보는 새로운 컴퓨팅 패러다임을 만들어야 합니다. 우리가 컴퓨터와 상호 작용하는 방식은 앞으로 몇 년 동안 많이 달라질 것이며 이를 위해서는 인간-컴퓨터 상호 작용(HCI)에 대한 재고가 필요할 것입니다.

또 다른 변화는 인간이 앞으로 나아가는 방식입니다. Microsoft는 AI의 도움을 받을 때 작성된 코드 라인 측면에서 작업자의 생산성이 두 배로 증가할 수 있다는 연구를 수행했습니다. 이것은 놀라운 업적이지만 이 기술이 작동하는 방식과 지능이 어디서 나오는지는 거의 알려지지 않았기 때문에 이 분야에 대한 많은 연구 질문이 있습니다.

이와 같은 LLM의 오용 가능성에 대한 질문도 많이 있습니다. 공정성, 다양한 인구통계학적 위험 및 기타 훨씬 더 심각한 결과에 대한 우려가 있습니다. 과학적 발견의 잠재력은 크지만 해를 끼칠 가능성도 큽니다. 예를 들어, 부모가 자녀에게 예방접종을 하지 않도록 설득하거나, 자녀가 나쁜 일을 하도록 설득하거나, 누군가에게 세상이 평평하다고 설득하는 것입니다. LLM 개발에 많은 안전 노력이 기울여졌으며 오픈 소스는 이 분야에서도 진전을 이루는 데 매우 도움이 될 수 있습니다.  

그런 다음 Kamar 박사는 과학계에 다음과 같은 질문을 제기했습니다.

  • AI 파괴로 인해 과학은 어떻게 변할 것인가?
  • 우리는 다음 세대를 교육하고 훈련하는 방법을 변화시키기 위한 조치를 취하고 있습니까?
  • 이러한 단계 전환의 혜택을 누릴 수 있는 기술 인프라를 구축하고 있습니까?
  • 우리는 새로운 세상을 위해 미래 세대를 준비시키고 있습니까?

마지막으로 Kamar 박사는 주목할 만한 단계 전환의 핵심 측면 중 하나가 LLM의 발전 속도라고 강조했습니다. 이러한 모델은 매우 짧은 시간 내에 크게 개선되고 있으며 컴퓨팅 연구자들은 따라잡기 위해 많은 노력을 기울이고 있습니다.

두 번째 패널리스트인 Hal Daumé III 박사(메릴랜드 대학교)는 사람들이 원하는 일을 할 수 있도록 AI 모델을 개발해야 한다고 설명하면서 강연을 시작했습니다. 자동화가 아니라 인간의 작업을 늘리십시오. 자동화에 대한 이러한 비전은 60년대부터 사회에 널리 퍼졌습니다. 과학자들은 사람들이 체스를 더 잘 하도록 돕는 대신 스스로 체스를 두는 시스템을 설계했습니다.

이 철학은 아무데도 가지 않습니다. 오늘날의 AI는 스스로 작업을 수행할 수 있을 만큼 지능적이라면 여전히 뉴스 가치가 있습니다. 이것은 AI의 피 속에 깊숙이 들어있습니다. 시스템 자동화에 시간과 돈을 쓰기 전에 먼저 잠시 멈춰서 이것이 우리에게 이익이 되는지 물어봐야 합니다.

Daumé 박사는 증강의 개념을 추진했습니다. AI를 도구로 어떻게 사용할 수 있습니까? Github copilot과 같은 시스템은 생산성을 높여주지만 생산성을 높이는 것만으로는 충분하지 않습니다. 시스템 사용자는 재미있는 코딩 부분에 집중할 수 있게 되었으며 이는 AI 구축 방식과 훨씬 더 일치한다고 말했습니다.

AI 연구자들은 개인의 업무에서 재미있는 부분을 제거하고 싶어해서는 안 됩니다. 그들은 고된 일을 제거하는 것을 우선시해야 합니다. 이는 단순히 회사의 수익을 향상시키는 것이 아니라 인간의 삶을 개선해야 합니다.

Daumé 박사는 이러한 점을 제기하는 논문을 공동 집필했으며 기술적 관점에서 특히 기계 학습 기술을 사용하여 시스템을 구축하는 것이 증강보다 자동화하는 것이 훨씬 쉽다는 반론이 나왔습니다. 시스템을 훈련시킬 시스템을 훈련시키는 데 필요한 데이터를 쉽게 얻을 수 있기 때문입니다. 우리는 업무를 수행하여 이러한 정보를 제공하며, 인간 행동을 모방하도록 ML을 쉽게 교육할 수 있습니다. 누군가가 작업을 완료하도록 돕기 위해 시스템을 가르치는 것은 훨씬 더 어렵습니다. 이 정보는 NSF의 문헌 검토, 프로그래머의 종이 쓰기 등에 흩어져 있습니다. 인간이 작업을 수행하는 데 필요한 데이터는 기록되지 않습니다.

유용한 시스템 구축의 또 다른 핵심 측면은 사용자에게 어떤 시스템이 자신의 삶에 도움이 될 것인지 묻는 것입니다. 예를 들어 시각 장애인의 요구 사항은 시각 장애인의 요구 사항과 매우 다릅니다. 생각 시각 장애인의 필요 사항은 다음과 같습니다). Daumé 박사가 공유한 예는 시각 시스템을 통해 물체가 탄산음료 캔임을 밝힐 수 있지만 시각 장애인은 일반적으로 스스로 그것을 알 수 있다는 것입니다. 탄산음료의 성분은 그들에게 훨씬 더 유용할 것입니다. 단순히 질문을 이해하는 것부터 접근성 질문을 해결하는 것까지 시스템 응답의 품질 사이에는 엄청난 격차가 있으며, 이러한 격차는 점점 더 벌어지고 있습니다.

커뮤니티를 "도움"하는 기술을 개발하기 전에 먼저 커뮤니티 요구 사항을 결정하는 것의 중요성에 대한 또 다른 예는 콘텐츠 조정입니다. 많은 자원봉사 콘텐츠 조정자는 세상을 더 나은 곳으로 만들고 자신이 중요하다고 생각하는 커뮤니티를 구축하는 데 도움을 주기 위해 작업에 참여합니다. 자신의 역할에 어떤 종류의 도구를 사용하고 싶은지 묻는 질문에 그들은 종종 자신의 작업이 완전히 자동화되는 것을 원하지 않고 단지 채팅 기록 조회와 같은 지루한 부분이 더 쉬워지기를 원합니다.

Daumé 박사는 자동차를 사랑하고 자율주행차 운전을 거부하는 자동차를 사랑하는 엄마의 마지막 사례로 이 토론을 마무리합니다. 그녀는 수동변속기를 선택하고, 그녀가 그 선택을 하는 것은 정말 중요합니다. 사람들은 자신의 작업을 자동화할지 여부를 제어할 수 있어야 합니다.

Daumé 박사는 접근성 기술에 대한 현재 접근 방식에 대한 대안을 제시하며 대화를 계속합니다. 예를 들어, 수화 인식을 위한 도구를 구축할 때 사람들이 서명하는 비디오를 인터넷에서 스크랩하는 대신(동의 및 개인 정보 보호에 대한 많은 우려가 있으며 이러한 비디오의 대부분은 전문적이고 배경 소음/방해 요소가 없음) 현실적이지 않음) 커뮤니티에 연락하여 도구 교육을 위한 동영상을 제출할 수 있는 권한을 부여하는 프로젝트를 시작하세요. 이와 같은 커뮤니티 우선 전략은 보다 윤리적이고 책임감 있으며 사용자에게 더 많은 제어권을 제공합니다. 

LLM 및 기타 도구는 지능이 아닌 유용성을 우선시하도록 개발되어야 한다고 Daumé 박사는 결론지었습니다. 유용할수록 사람들이 이미 잘하고 즐기는 일을 자동화하는 대신 사람들이 할 수 없거나 하고 싶지 않은 일을 하는 데 더 많은 도움을 줄 수 있습니다.

다음 연사는 조나단 메이(Jonathan May) 박사(서던캘리포니아대학교 정보과학연구소)이며, 그는 컨퍼런스 주제인 “벽 없는 과학을 향하여(Towards Science Without Walls)”에 대해 성찰하면서 연설을 시작했습니다. 그는 최근 LLM 개발이 일부 사람들에게는 벽을 허물지만 많은 사람들에게는 벽을 쌓고 있다고 가정합니다.

그는 먼저 인터넷이 연구 수행에 대한 많은 장벽을 어떻게 낮췄는지 논의합니다. 17세 때 그는 왜 스타워즈와 반지의 제왕의 줄거리가 매우 비슷한지 궁금해서 차를 몰고 도서관으로 가서 답이 담긴 책을 찾아야 했습니다. 그는 박사 학위 논문을 위해 더 큰 위험이 있지만 마찬가지로 힘든 연구를 수행했지만, 공부가 끝날 무렵에는 해당 주제에 대한 Wikipedia 페이지가 생성되었고 인터넷 검색이 이루어졌으며 이제는 자동차 없는 연구가 표준이 되었습니다.

May 박사는 LLM의 대상 청중의 인구 통계에 속하게 된 것을 특권으로 느꼈다고 말했습니다. 그는 코딩을 자주 하지 않고 코딩 기술을 많이 배운 적도 없지만 업무에 필요할 때 ChatGPT에 문의하면 아주 잘 작동합니다. 

그러나 LLM의 유용성을 널리 알리는 데는 많은 벽이 있습니다.

  • 언어 벽: 모델은 학습된 데이터가 많을수록 더 잘 작동합니다. 오늘날의 상용 LLM은 다국어를 지원하지만 영어에 중점을 두고 있습니다. 예를 들어 ChatGPT는 92%가 영어로 교육되었습니다. 또한 LLM의 "비밀 소스"인 명령 데이터는 대부분 영어입니다(예: ChatGPT의 96%). 현재 기존 테스트의 시스템적 성능 격차에도 불구하고 이러한 모델의 교차 언어 성능을 개선하려는 노력은 거의 없습니다. 이는 기계 번역(MT)이 "해결"되었으며 노력이 다른 작업에 집중되어야 한다는 일반적인 합의로 인해 의미가 있습니다.
  • 정체성 벽: ChatGPT에 크리스마스에 무엇을 해야 하는지 묻는다면 참여할 수 있는 다양한 활동과 전통에 초점을 맞춥니다. 당신이 일하러 갈 수 있다는 말은 없습니다. LLM은 다양한 인구통계학적 그룹을 설명할 때 다르게 행동하는 것으로 나타났으며, 더 부정적인 감정을 표현하고 경우에 따라 노골적인 독성을 표현하기도 했습니다. LGBTQ+나 유대인 같은 커뮤니티에는 해를 끼칠 수 있는 고정관념적인 문장이 나올 가능성이 있습니다. 전반적으로 많은 편견이 있으며 이는 배포된 의사 결정에 영향을 미칩니다. 몇 가지 보호 장치가 내장되어 있으며 보다 명시적인 조사 질문은 유해한 답변을 받을 가능성이 적습니다. 그러나 모델은 확률적으로 틀에 박힌 진술과 결과를 선호합니다. 특히 다운스트림 기능에서 모델을 사용할 때 해가 되는 부분이 있습니다. 산출물(즉, 대출 자격). 그는 직업에 따라 개인의 얼굴을 생성할 때 편견을 보이는 LLM의 예를 제시했습니다. 낮은 임금을 받는 직업은 여성과 소수자로 표시되는 반면, 높은 임금을 받는 직업은 백인 남성으로 표시됩니다.
  • 환경 벽(소프트웨어): LLM은 생산하고 실행하는 데 상당한 양의 에너지가 필요합니다. 가장 "보통" LM이라도 한 사람이 사용하는 것보다 연간 에너지를 3배 더 많이 사용합니다. ChatGPT와 같은 가장 큰 언어 모델에 대한 데이터에도 상당한 격차가 있지만 이를 소유한 회사는 에너지 소비에 대한 액세스를 명시적으로 거부합니다.
  • 환경 벽(하드웨어): 모든 LLM에 필요한 칩을 생산하려면 탄탈륨(콩고에서 채굴됨), 하프늄(세네갈과 러시아에서 채굴됨)과 같은 "분쟁 물질"이 필요합니다. 미국에서는 기업들이 분쟁광물 사용량을 보고해야 하는데, 미국에서는 공개적으로 이러한 물질의 사용량이 감소하고 있는데 이는 사실이 아닙니다. 그 외에도 중국이 미국의 수출 제한에 대한 보복으로 게르마늄과 갈륨을 제한하는 등 사회정치적 문제가 많다.

May 박사는 이러한 범주가 LLM으로 인한 피해에 대한 많은 하위 문제 중 일부와 사람들이 혜택을 받지 못하는 사례를 드러낸다고 표현했습니다. 우려할 만한 이유가 있지만 이러한 피해 중 일부를 완화할 수 있는 연구 및/또는 행동 변화의 기회도 있습니다.

  • 언어: 다국어 지원에 더 많은 연구 자금을 투자합니다(영어와의 헤게모니적 번역뿐만 아니라).
  • 정체성: 상향식 및 커뮤니티 포함 연구. 배포 전 모델 수정 및 테스트
  • 환경: 더 적은 데이터를 사용하고 더 적은 매개변수(예: LoRA, 어댑터, 비RL PO)를 변경하는 알고리즘 개발. 컴퓨팅에 대해 성실하고 규제 수준에서 개방성을 주장합니다. 

May 박사는 사람들이 LLM과 상호 작용할 때 혜택을 받기를 원하는 방식으로 혜택을 받아야 하며 이것이 개발 단계에서 최우선적으로 고려되어야 한다는 Daumé 박사의 요점을 반복하여 패널을 마무리했습니다.

읽어주셔서 감사합니다. 내일 세션의 Q&A 부분 요약을 읽어보시기 바랍니다.

spot_img

최신 인텔리전스

spot_img