제퍼넷 로고

2024년 가장 중요한 AI 트렌드 - IBM 블로그

시간


2024년 가장 중요한 AI 트렌드 - IBM 블로그



성공을 위한 자신의 계획에 따라 팀을 지휘

2022년은 생성적 인공지능(AI)이 대중의 의식 속으로 폭발적으로 확산된 해였으며, 2023년은 AI가 비즈니스 세계에 뿌리를 내리기 시작한 해였습니다. 따라서 2024년은 AI의 미래를 위한 중추적인 해가 될 것입니다. 연구원과 기업은 이러한 기술의 진화적 도약이 어떻게 우리 일상 생활에 가장 실질적으로 통합될 수 있는지 확립하려고 노력하고 있기 때문입니다.

생성적 AI의 진화는 비록 극적으로 가속화된 타임라인에 있기는 하지만 컴퓨터의 진화를 반영했습니다. 소수의 플레이어가 중앙에서 운영하는 대규모 메인프레임 컴퓨터는 기업과 연구 기관에서 액세스할 수 있는 더 작고 효율적인 시스템으로 대체되었습니다. 그 후 수십 년 동안 점진적인 발전을 통해 취미로 만질 수 있는 가정용 컴퓨터가 탄생했습니다. 시간이 지나면서 코드가 필요 없는 직관적인 인터페이스를 갖춘 강력한 개인용 컴퓨터가 널리 보급되었습니다.

제너레이티브 AI는 이미 "취미주의자" 단계에 도달했으며 컴퓨터와 마찬가지로 더 작은 패키지에서 더 높은 성능을 달성하는 것을 목표로 합니다. 2023년에는 효율성이 폭발적으로 증가했습니다. 기초 모델 Meta의 LlaMa 제품군의 LLM(대형 언어 모델) 출시를 시작으로 StableLM, Falcon, Mistral 및 라마 2. DeepFloyd와 Stable Diffusion은 주요 독점 모델과 상대적인 동등성을 달성했습니다. 오픈 소스 커뮤니티에서 개발한 미세 조정 기술과 데이터 세트로 강화된 많은 개방형 모델은 이제 매개변수 수가 훨씬 적음에도 불구하고 대부분의 벤치마크에서 가장 강력한 폐쇄 소스 모델을 제외한 모든 모델을 능가할 수 있습니다.

발전 속도가 가속화됨에 따라 최첨단 모델의 계속 확장되는 기능은 언론의 가장 큰 관심을 끌 것입니다. 그러나 가장 영향력 있는 개발은 생성적 AI를 더욱 효과적으로 만드는 거버넌스, 미들웨어, 교육 기술 및 데이터 파이프라인에 초점을 맞춘 개발일 수 있습니다. 신뢰할 수있는, 지속가능한 기업과 최종 사용자 모두에게 액세스가 가능합니다.

다음은 내년에 주목해야 할 몇 가지 중요한 현재 AI 동향입니다.

  • 현실 점검: 보다 현실적인 기대
  • 다중 모드 AI
  • 더 작은 언어 모델 및 오픈 소스 발전
  • GPU 부족 및 클라우드 비용
  • 모델 최적화에 대한 접근성이 높아지고 있습니다.
  • 맞춤형 로컬 모델 및 데이터 파이프라인
  • 더욱 강력해진 가상 에이전트
  • 규제, 저작권 및 윤리적 AI 문제
  • Shadow AI(및 기업 AI 정책)

현실 점검: 보다 현실적인 기대

생성적 AI가 처음으로 대중의 관심을 끌었을 때 일반적인 비즈니스 리더의 지식은 대부분 마케팅 자료와 숨 막히는 뉴스 보도에서 나왔습니다. 실질적인 경험(있는 경우)은 ChatGPT 및 DALL-E를 조작하는 것으로 제한되었습니다. 이제 먼지가 가라앉았으므로 비즈니스 커뮤니티는 이제 AI 기반 솔루션에 대해 더욱 정교하게 이해하게 되었습니다.

Gartner Hype Cycle은 Generative AI를 "환멸의 최저점"으로 미끄러지는 지점인 "부풀려진 기대의 정점"에 정면으로 배치합니다.[I]즉, (상대적으로) 실망스러운 전환기에 곧 진입할 예정입니다. 반면 Deloitte의 1년 2024분기 "기업에서 생성된 AI 현황" 보고서는 많은 리더들이 "단기적으로 상당한 변혁적 영향을 기대"한다고 밝혔습니다.[II] 현실은 그 사이에 있을 가능성이 높습니다. 생성 AI는 고유한 기회와 솔루션을 제공하지만 그것이 모든 사람에게 전부는 아닐 것입니다.

실제 결과를 과대 광고와 비교하는 방법은 부분적으로 관점의 문제입니다. ChatGPT와 같은 독립 실행형 도구는 일반적으로 대중적인 상상 속에서 중심 무대를 차지하지만 기존 서비스에 원활하게 통합되어 더 많은 지속력을 제공하는 경우가 많습니다. 현재의 과대 광고 주기 이전에는 Google이 2018년에 출시한 'Smart Compose' 기능과 같은 생성적 기계 학습 도구가 오늘날의 텍스트 생성 서비스의 선구자임에도 불구하고 패러다임 전환으로 예고되지 않았습니다. 마찬가지로, 많은 영향력 있는 생성 AI 도구는 기존 도구를 혁신하거나 대체하기보다는 강화하고 보완하는 기업 환경의 통합 요소로 구현되고 있습니다. 예를 들어 Microsoft Office의 "Copilot" 기능, Adobe의 "Generative Fill" 기능이 있습니다. 포토샵이나 생산성 및 협업 앱의 가상 에이전트.

생성적 AI가 일상적인 워크플로우에서 처음으로 추진력을 구축하는 곳에서는 특정 AI 기능의 가상적인 장점보다 AI 도구의 미래에 더 큰 영향을 미칠 것입니다. 최근에 따르면 엔터프라이즈 규모 기업의 직원 1,000명 이상을 대상으로 한 IBM 설문조사, AI 채택을 촉진하는 세 가지 주요 요인은 접근성을 높이는 AI 도구의 발전, 비용 절감 및 핵심 프로세스 자동화의 필요성, 표준 기성 비즈니스 애플리케이션에 내장된 AI의 양 증가였습니다.

멀티 모달 AI(및 비디오)

즉, 최첨단 생성 AI에 대한 야망이 커지고 있습니다. 다음 발전의 물결은 특정 영역 내에서 성능을 향상시키는 것뿐만 아니라 멀티 모달 모델 여러 유형의 데이터를 입력으로 사용할 수 있습니다. 다양한 데이터 양식에 걸쳐 작동하는 모델은 완전히 새로운 현상은 아니지만(CLIP과 같은 텍스트-이미지 모델 및 Wave2Vec과 같은 음성-텍스트 모델은 수년 동안 사용되어 왔습니다) 일반적으로 한 방향으로만 작동했습니다. 특정 작업을 수행하도록 훈련되었습니다.

OpenAI의 GPT-4V 또는 Google의 Gemini와 같은 독점 모델과 LLaVa, Adept 또는 Qwen-VL과 같은 오픈 소스 모델로 구성된 차세대 학제간 모델은 자연어 처리(NLP)와 컴퓨터 비전 작업 사이를 자유롭게 이동할 수 있습니다. 새로운 모델도 등장 비디오 접힌 부분: 1월 말 Google은 이미지-비디오 작업을 수행하거나 스타일 참조를 위해 이미지를 사용할 수도 있는 텍스트-비디오 확산 모델인 Lumiere를 발표했습니다.

멀티모달 AI의 가장 즉각적인 이점은 보다 직관적이고 다재다능한 AI 애플리케이션과 가상 비서입니다. 예를 들어, 사용자는 이미지에 대해 질문하고 자연어 답변을 받거나, 수리 지침을 큰 소리로 요청하고 단계별 텍스트 지침과 함께 시각적 지원을 받을 수 있습니다.

더 높은 수준에서 멀티모달 AI를 사용하면 모델이 더욱 다양한 데이터 입력을 처리하여 훈련 및 추론에 사용할 수 있는 정보를 풍부하게 하고 확장할 수 있습니다. 특히 비디오는 전체적인 학습에 큰 잠재력을 제공합니다. 스탠포드 인간 중심 인공 지능 연구소(HAI)의 특별 교육 펠로우인 Peter Norvig는 "연중무휴 24시간 작동되는 카메라는 필터링이나 의도 없이 일어나는 일을 그대로 포착합니다."라고 말합니다. .[iii] “AI 모델에는 이전에는 그런 종류의 데이터가 없었습니다. 이러한 모델은 모든 것을 더 잘 이해하게 될 것입니다.”

더 작은 언어 모델 및 오픈 소스 발전

도메인별 모델, 특히 LLM에서는 매개변수 수가 많아지면 수익이 감소하는 지점에 도달했을 가능성이 높습니다. OpenAI의 CEO인 Sam Altman(그의 GPT-4 모델은 약 1.76을 가지고 있다는 소문이 있습니다) 일조 매개 변수)는 지난 4월 MIT의 Imagination in Action 행사에서 다음과 같이 제안했습니다. “우리는 이러한 거대한 모델이 존재하는 시대의 마지막에 와 있다고 생각하며, 우리는 다른 방식으로 이를 더 좋게 만들 것입니다.”라고 그는 예측했습니다. . "매개변수 개수에 너무 많은 초점을 맞춘 것 같아요."

대규모 모델은 현재 진행 중인 AI 황금기를 도약시켰지만 단점이 없는 것은 아닙니다. 가장 큰 회사만이 수천억 개의 매개변수를 사용하여 에너지를 많이 소비하는 모델을 훈련하고 유지할 수 있는 자금과 서버 공간을 보유하고 있습니다. 워싱턴 대학의 한 추정에 따르면 단일 GPT-3 크기 모델을 훈련하려면 다음이 필요합니다. 매년 1,000가구 이상의 전기 소비; ChatGPT 쿼리의 표준일은 미국 33,000가구의 일일 에너지 소비량과 맞먹습니다.[iv]

한편, 더 작은 모델은 리소스 집약도가 훨씬 낮습니다. 영향력 있는 2022년 XNUMX월 논문 Deepmind는 더 많은 데이터로 더 작은 모델을 훈련하면 더 적은 데이터로 더 큰 모델을 훈련하는 것보다 더 나은 성능을 얻을 수 있음을 보여주었습니다. 따라서 LLM에서 진행 중인 혁신의 대부분은 더 적은 매개변수로 더 많은 결과를 산출하는 데 중점을 두었습니다. 3억~70억 매개변수 범위의 모델, 특히 2년 LLaMa, Llama 2023 및 Mistral 기반 모델을 기반으로 구축된 모델의 최근 발전에서 알 수 있듯이 모델은 큰 성능 저하 없이 축소될 수 있습니다.

개방형 모델의 힘은 계속 커질 것입니다. 2023년 XNUMX월 Mistral은 "Mixtral"을 출시했습니다. 전문가들의 혼합 (환경부) 각각 8억 개의 매개변수를 갖는 7개의 신경망을 통합한 모델입니다. Mistral은 Mixtral이 대부분의 벤치마크에서 70배 더 빠른 추론 속도로 Llama 2의 6B 매개변수 변형보다 성능이 뛰어날 뿐만 아니라 심지어 OpenAI와 일치하거나 능가한다고 주장합니다. 멀리 대부분의 표준 벤치마크에서 더 큰 GPT-3.5. 그로부터 얼마 지나지 않아 Meta는 지난 3월 이미 Llama 3 모델 훈련을 시작했으며 오픈 소스화할 것이라고 발표했습니다. 세부 사항(예: 모델 크기)은 확인되지 않았지만 Llama XNUMX가 이전 XNUMX세대에서 확립된 프레임워크를 따를 것으로 기대하는 것이 합리적입니다.

소형 모델의 이러한 발전에는 세 가지 중요한 이점이 있습니다.

  • AI 민주화에 도움이 됩니다. 더 저렴한 하드웨어에서 더 저렴한 비용으로 실행할 수 있는 더 작은 모델을 통해 더 많은 아마추어와 기관이 기존 모델을 연구, 교육 및 개선할 수 있습니다.
  • 더 작은 장치에서 로컬로 실행할 수 있습니다. 이를 통해 엣지 컴퓨팅 및 사물 인터넷(IoT)과 같은 시나리오에서 더욱 정교한 AI가 가능해집니다. 또한 사용자의 스마트폰과 같이 로컬에서 모델을 실행하면 민감한 개인 데이터 또는 독점 데이터와의 상호 작용에서 발생하는 많은 개인 정보 보호 및 사이버 보안 문제를 피하는 데 도움이 됩니다.
  • AI를 더 설명하기 쉽게 만듭니다. 모델이 클수록 중요한 결정을 내리는 방법과 장소를 정확히 찾아내기가 더 어렵습니다. 설명 가능한 AI AI 시스템의 결과를 이해하고, 개선하고, 신뢰하는 데 필수적입니다.

GPU 부족 및 클라우드 비용

더 작은 모델을 향한 추세는 하드웨어 가용성이 감소함에 따라 클라우드 컴퓨팅 비용이 증가함에 따라 기업가적 활력에 의해서뿐만 아니라 필요성에 의해서도 주도될 것입니다.

Stanford HAI의 부국장이자 교수진인 James Landay는 "대기업(및 그 중 더 많은 기업)은 모두 AI 기능을 내부로 가져오려고 노력하고 있으며 GPU를 사용하는 경우도 있습니다."라고 말합니다. "이것은 GPU 생산량 증가뿐만 아니라 혁신가들이 더 저렴하고 만들고 사용하기 쉬운 하드웨어 솔루션을 내놓는 데 큰 압력을 가할 것입니다."1

2023년 말 O'Reilly 보고서에 따르면 현재 클라우드 제공업체는 컴퓨팅 부담의 상당 부분을 부담하고 있습니다. 자체 인프라를 유지 관리하는 AI 채택자는 상대적으로 적으며, 하드웨어 부족으로 인해 온프레미스 서버 설정에 따른 장애물과 비용만 높아질 것입니다. 장기적으로 이는 공급자가 생성 AI의 수요를 효과적으로 충족하기 위해 자체 인프라를 업데이트하고 최적화함에 따라 클라우드 비용에 상승 압력을 가할 수 있습니다.[V]

기업의 경우 이러한 불확실한 환경을 탐색하려면 두 모델(필요한 경우 더 작고 효율적인 모델에 기대거나 실용적일 때 더 크고 성능이 뛰어난 모델) 및 배포 환경 측면에서 유연성이 필요합니다. IBM CEO Arvind Krishna는 "우리는 사람들이 [모델]을 배포하는 위치를 제한하고 싶지 않습니다."라고 말했습니다. 2023년 XNUMX월 CNBC 인터뷰, IBM의 왓슨스 플랫폼. “그러므로 그들이 대규모 퍼블릭 클라우드에 배포하기를 원한다면 우리는 그곳에서 배포할 것입니다. 그들이 IBM에 배포하기를 원한다면 우리는 IBM에서 배포할 것입니다. 그들이 스스로 하고 싶어하고 인프라가 충분하다면 우리는 그곳에서 할 것입니다.”

모델 최적화에 대한 접근성이 높아지고 있습니다.

보다 컴팩트한 모델의 성능을 극대화하려는 추세는 최근 오픈 소스 커뮤니티의 결과에 잘 반영되어 있습니다. 

많은 주요 발전은 새로운 기초 모델뿐만 아니라 사전 훈련된 모델의 훈련, 조정, 미세 조정 또는 정렬을 위한 새로운 기술 및 리소스(예: 오픈 소스 데이터 세트)에 의해 주도되었으며 앞으로도 계속될 것입니다. 2023년에 채택된 주목할만한 모델 독립적 기술은 다음과 같습니다.

  • 낮은 순위 적응(LoRA): 수십억 개의 모델 매개변수를 직접 미세 조정하는 대신, LoRA에는 사전 훈련된 모델 가중치를 동결하고 훈련 가능한 레이어를 주입하는 작업이 수반됩니다. 이는 모델 가중치에 대한 변경 행렬을 2개 더 작은(하위) 행렬 - 각 변환기 블록에 있습니다. 이는 업데이트해야 하는 매개변수의 수를 크게 줄여 결과적으로 미세 조정 속도를 크게 높이고 모델 업데이트를 저장하는 데 필요한 메모리를 줄입니다.
  • 양자화 : 파일 크기와 대기 시간을 줄이기 위해 오디오 또는 비디오의 비트 전송률을 낮추는 것처럼 양자화는 모델 데이터 포인트를 나타내는 데 사용되는 정밀도를 낮춥니다(예: 16비트 부동 소수점에서 8비트 정수로). 메모리 사용량을 줄이고 추론 속도를 높입니다. QLoRA 기술은 양자화와 LoRA를 결합합니다.
  • 직접 선호도 최적화(DPO): 채팅 모델은 일반적으로 인간 피드백으로부터 강화 학습(RLHF) 모델 출력을 인간의 선호도에 맞춰 조정합니다. RLHF는 강력하기는 하지만 복잡하고 불안정합니다. DPO는 컴퓨팅 측면에서 가볍고 상당히 단순하면서도 비슷한 이점을 제공합니다.

3억~70억 개의 매개변수 공간에서 오픈 소스 모델의 병행 발전과 함께 이러한 진화하는 기술은 스타트업 및 아마추어와 같은 소규모 플레이어에게 이전에는 접근할 수 없었던 정교한 AI 기능을 제공함으로써 AI 환경의 역학을 변화시킬 수 있습니다.

맞춤형 로컬 모델 및 데이터 파이프라인

따라서 2024년의 기업은 '빅 AI'의 리패키지 서비스를 중심으로 래퍼를 구축하는 대신 맞춤형 모델 개발을 통해 차별화를 추구할 수 있습니다. 와 함께 올바른 데이터 및 개발 프레임워크, 기존 오픈 소스 AI 모델 및 도구는 고객 지원 사용부터 공급망 관리, 복잡한 문서 분석에 이르기까지 거의 모든 실제 시나리오에 맞게 조정할 수 있습니다.

오픈 소스 모델은 조직이 엄청나게 값비싼 인프라에 투자하지 않고도 독점 데이터를 기반으로 교육을 받고 특정 요구 사항에 맞게 미세 조정된 강력한 맞춤형 AI 모델을 신속하게 개발할 수 있는 기회를 제공합니다. 이는 특히 사전 훈련의 기초 모델에서 고도로 전문화된 어휘와 개념을 학습하지 못한 법률, 의료 또는 금융과 같은 영역과 관련이 있습니다.

법률, 금융, 의료 역시 적당한 하드웨어에서 로컬로 실행될 수 있을 만큼 작은 모델의 이점을 누릴 수 있는 산업의 대표적인 예입니다. AI 훈련, 추론 및 유지 검색 증강 생성(RAG) 로컬은 독점 데이터 또는 민감한 개인 정보가 비공개 소스 모델을 교육하는 데 사용되거나 제3자의 손을 통과하는 위험을 방지합니다. 그리고 LLM 자체 내에 모든 지식을 직접 저장하는 대신 RAG를 사용하여 관련 정보에 액세스하면 모델 크기가 줄어들고 속도가 더욱 향상되며 비용이 절감됩니다.

2024년에도 계속해서 모델 경쟁의 장을 평준화함에 따라 업계 최고의 미세 조정을 가능하게 하는 독점 데이터 파이프라인에 의해 경쟁 우위가 점점 더 주도될 것입니다.

더욱 강력해진 가상 에이전트

더욱 정교하고 효율적인 도구와 1년간의 시장 피드백을 통해 기업은 다음과 같은 사용 사례를 확장할 수 있습니다. 가상 에이전트 단순함을 넘어 고객 경험 챗봇.

AI 시스템이 속도를 높이고 새로운 정보 스트림과 형식을 통합함에 따라 의사소통 및 지시 따르기뿐만 아니라 작업 자동화의 가능성도 확장됩니다. “2023년은 AI와 대화할 수 있는 해였습니다. 여러 회사에서 무언가를 출시했지만 상호 작용은 항상 사용자가 무언가를 입력하고 다시 입력하는 것이었습니다.”라고 Stanford의 Norvig는 말합니다. “2024년에 우리는 보게 될 것입니다 상담원이 귀하를 위해 작업을 완료할 수 있는 능력. 예약하고, 여행을 계획하고, 다른 서비스에 연결하세요.”

특히 다중 모드 AI는 가상 에이전트와의 원활한 상호 작용 기회를 크게 늘립니다. 예를 들어, 단순히 봇에게 레시피를 요청하는 것이 아니라, 사용자는 열려 있는 냉장고에 카메라를 대고 사용 가능한 재료로 만들 수 있는 레시피를 요청할 수 있습니다. 시각 장애인과 저시력자를 자원봉사자와 연결하여 빠른 작업을 돕는 모바일 앱인 Be My Eyes는 인간 자원봉사자를 기다리는 대신 사용자가 멀티모달 AI를 통해 주변 환경과 직접 상호 작용할 수 있도록 돕는 AI 도구를 시범 운영하고 있습니다.

IBM watsonx™ Assistant 살펴보기: 비즈니스를 지원하는 도구에 대한 원활한 통합을 갖춘 시장 최고의 대화형 AI →

규제, 저작권 및 윤리적 AI 문제

향상된 다중 모드 기능과 낮아진 진입 장벽은 악용의 새로운 문을 열어줍니다. 딥페이크, 개인 정보 보호 문제, 편견의 영속화, CAPTCHA 보호 장치 회피까지 악의적인 행위자가 점점 더 쉬워질 수 있습니다. 2024년 2023월, 노골적인 유명인 딥페이크가 소셜 미디어를 강타했습니다. 8년 2022월 연구에 따르면 XNUMX년 같은 기간에 비해 온라인에 게시된 음성 딥페이크 수가 XNUMX배나 많았습니다.[바이]

규제 환경의 모호함은 단기 및 중기적으로 채택을 늦추거나 적어도 보다 공격적인 구현을 가능하게 할 수 있습니다. 새로운 법안에 따라 또는 향후 몇 년 동안 변화하는 정치적 역풍에 따라 상당한 재편성이 필요하거나 불법이 될 수도 있는 신흥 기술이나 관행에 대한 돌이킬 수 없는 대규모 투자에는 내재된 위험이 있습니다.

2023년 XNUMX월 유럽연합(EU)은 인공지능법에 관한 잠정협정. 무엇보다도 얼굴 인식 데이터베이스를 만들기 위해 이미지를 무차별적으로 긁는 행위, 차별적 편견이 발생할 가능성이 있는 생체 인식 분류 시스템, '사회적 채점' 시스템, 사회적 또는 경제적 조작을 위한 AI 사용을 금지합니다. 또한 안전, 기본권 또는 법치주의를 위협할 가능성이 있는 "고위험" AI 시스템의 범주를 정의하려고 하며 추가적인 감독이 적용됩니다. 마찬가지로 기술 문서 및 체계적인 적대 테스트를 포함하여 "범용 AI(GPAI)" 시스템, 즉 기반 모델에 대한 투명성 요구 사항을 설정합니다.

그러나 미스트랄(Mistral)과 같은 일부 주요 기업은 EU에 거주하고 있지만 획기적인 AI 개발의 대부분은 미국에서 일어나고 있습니다. 미국에서는 민간 부문에서 AI에 대한 실질적인 법안을 제정하려면 의회의 조치가 필요합니다. 선거 연도에는 그럴 가능성이 낮습니다. 바이든 행정부는 30월 XNUMX일 성명을 발표했다. 포괄적인 행정명령 연방 기관의 AI 기술 사용에 대한 150가지 요구 사항을 자세히 설명합니다. 몇 달 전에 행정부는 보안을 확보했습니다. 저명한 AI 개발자들의 자발적인 약속 신뢰와 보안을 위해 특정 가드레일을 준수합니다. 특히 캘리포니아주와 콜로라도주 모두 인공지능과 관련된 개인의 데이터 프라이버시권에 관한 자체 법안을 적극적으로 추진하고 있습니다.

중국은 소셜 미디어 추천 알고리즘에 의한 가격 차별을 금지하고 AI 생성 콘텐츠에 대한 명확한 라벨링을 의무화하는 등 공식적인 AI 제한을 향해 더욱 적극적으로 나아갔습니다. 생성 AI에 대한 향후 규정은 LLM을 훈련하는 데 사용되는 훈련 데이터를 요구하고, 이후 모델에 의해 생성된 콘텐츠는 "진실하고 정확"해야 하며, 전문가들은 LLM 결과를 검열하기 위한 조치를 취했습니다.

한편, 언어 모델부터 이미지 생성기, 비디오 모델에 이르기까지 콘텐츠 생성에 사용되는 AI 모델 훈련에서 저작권 자료의 역할은 여전히 ​​뜨거운 논쟁의 여지가 있는 문제로 남아 있습니다. 주목할만한 결과 가 제기한 소송 뉴욕 타임스 OpenAI 반대 AI 입법의 궤적에 큰 영향을 미칠 수 있습니다. 다음과 같은 적대적인 도구 유약가지 속의 식물—두 가지 모두 시카고 대학교에서 개발되었으며 — 제작자와 모델 개발자 사이의 일종의 군비 경쟁이 일어날 수 있습니다.

 IBM® watsonx.governance™가 책임감 있고 투명하며 설명 가능한 AI 워크플로우를 가속화하는 방법을 알아보세요 →

Shadow AI(및 기업 AI 정책)

기업의 경우 법적, 규제적, 경제적 또는 평판적 결과에 대한 이러한 증가하는 잠재력은 생성 AI 도구의 인기와 접근성이 얼마나 높아졌는지에 따라 더욱 복잡해집니다. 조직은 생성 AI에 대해 신중하고 일관되며 명확하게 설명된 기업 정책을 보유해야 할 뿐만 아니라 다음 사항에도 주의해야 합니다. 그림자 AI: 직원이 직장에서 AI를 "비공식적으로" 개인적으로 사용하는 것입니다.

"섀도우 IT" 또는 "BYOAI"라고도 불리는 섀도우 AI는 참을성이 없는 직원이 빠른 솔루션을 추구하거나 단순히 신중한 회사 정책이 허용하는 것보다 더 빠르게 새로운 기술을 탐색하려는 경우 IT 승인이나 감독을 거치지 않고 직장에서 생성 AI를 구현할 때 발생합니다. . 많은 소비자 대상 서비스(일부는 무료)를 통해 기술적 지식이 없는 개인이라도 즉석에서 생성 AI 도구를 사용할 수 있습니다. Ernst & Young의 한 연구에 따르면 응답자의 90%가 직장에서 AI를 사용한다고 답했습니다.[vii]

이러한 진취적인 정신은 공백 상태에서는 훌륭할 수 있지만 열성적인 직원에게는 보안, 개인 정보 보호 또는 규정 준수에 관한 관련 정보나 관점이 부족할 수 있습니다. 이로 인해 기업은 상당한 위험에 노출될 수 있습니다. 예를 들어, 직원은 사용자 입력을 지속적으로 교육하는 공개 AI 모델에 자신도 모르게 영업 비밀을 제공하거나 저작권으로 보호되는 자료를 사용하여 콘텐츠 생성을 위한 독점 모델을 교육하고 회사를 법적 조치에 노출시킬 수 있습니다.

진행 중인 많은 개발과 마찬가지로 이는 생성 AI의 위험이 기능에 따라 거의 선형적으로 증가하는 방식을 강조합니다. 큰 힘에는 큰 책임이 따른다.

앞으로 이동

인공 지능 분야에서 중요한 한 해를 보내면서 잠재력을 극대화하고 위험을 최소화하며 생성적 AI 채택을 책임감 있게 확장하려면 새로운 추세를 이해하고 이에 적응하는 것이 필수적입니다.

watsonx™와 함께 작동하는 생성 AI 적용 →

IBM이 AI 트렌드를 앞서갈 수 있도록 지원하는 방법을 알아보세요 →


[I] “Gartner는 2023년 신기술 하이프 사이클에서 생성 AI를 부풀려진 기대의 정점에 놓았습니다.” Gartner, 16년 2023월 XNUMX일

[II] "Deloitte의 기업 분기 1분기 보고서에 실린 생성 AI 현황," 딜로이트, 2024년 XNUMX월

[iii] “2024년 AI에서 기대할 수 있는 것” 스탠포드 대학교, 8년 2023월 XNUMX일

[iv] "Q&A: UW 연구원이 ChatGPT가 얼마나 많은 에너지를 사용하는지 논의합니다." 워싱턴 대학교, 27년 2023월 XNUMX일

[V] “엔터프라이즈에서의 생성적 AI” 오라일리, 28년 2023월 XNUMX일

[바이] "딥페이크: 미국의 2024년 선거는 AI 붐과 일치합니다." 로이터, 30년 2023월 XNUMX일

[vii] "조직이 급증하는 AI 사용으로 인해 불안이 커지는 것을 막을 수 있는 방법" Ernst & Young, 2023년 XNUMX월

이 글이 도움 되었나요?

가능아니


인공 지능에 대해 자세히 알아보기




탁월한 직원 경험 창출

4 분 읽기 - 직원의 개인 생활과 직업 생활 사이의 경계가 그 어느 때보다 모호해짐에 따라 직원들은 자신의 모든 것을 고려하는 보다 유연하고 공감하는 직장을 기대합니다. 직원 기대치의 이러한 변화는 급속한 기술 발전, 기술 격차 확대, 예측할 수 없는 사회 경제적 문제 등의 어려운 환경에서 일어나고 있습니다. 무엇보다도 HR의 본질은 직원 경험을 정량화하기 어렵고 조직은 변화하기 어렵기 때문에 최적화에 저항합니다. 이러한 어려움에도 불구하고,…




생성 AI가 자산 관리를 최적화할 수 있는 6가지 방법

3 분 읽기 - 조직의 규모에 관계없이 모든 자산 관리자는 유사한 임무에 직면해 있습니다. 즉, 유지 관리 계획을 간소화하고, 자산 또는 장비 신뢰성을 향상하고, 워크플로를 최적화하여 품질과 생산성을 향상시키는 것입니다. 최고 공급망 책임자를 대상으로 한 최근 IBM 기업 가치 연구소의 연구에서 응답자의 거의 절반이 문제에 대응하여 새로운 기술을 채택했다고 밝혔습니다. 기존 AI와 결합된 생성적 인공 지능(AI) 기반 모델의 강력한 기능을 통해 더 많은 도움을 받을 수 있습니다.




Recording Academy가 IBM watsonx를 사용하여 GRAMMYs®에서 팬 경험을 향상시키는 방법

3 분 읽기 - GRAMMYs®를 통해 Recording Academy®는 녹음 예술과 과학의 우수성을 인정하고 음악이 우리 문화의 지울 수 없는 부분으로 남도록 노력하고 있습니다. 세계 최고의 음반 스타들이 제66회 그래미 시상식 레드카펫을 밟을 때 IBM이 다시 한 번 그 자리에 함께할 것입니다. 올해 GRAMMY가 직면한 비즈니스 과제는 다른 상징적인 문화 스포츠 및 엔터테인먼트 이벤트의 과제와 유사합니다. 오늘날의 고도로 단편화된 미디어 환경에서 문화적 영향력을 창출한다는 것은 매력적인 콘텐츠를 추진한다는 것을 의미합니다.




모두를 위한 AI 도우미: watsonx Orchestrate는 생성 AI와 자동화를 결합하여 생산성을 높입니다.

3 분 읽기 - 직원들이 시간이 많이 걸리는 작업을 쉽게 위임하고, 간단한 문의를 통해 원활하게 정보에 액세스하고, 간소화된 단일 애플리케이션 내에서 복잡한 프로젝트를 처리할 수 있는 능력이 있다면 어떨까요? 고객이 지능적이고 친숙한 가상 에이전트에 액세스하여 답변을 제공하고 24시간 내내 셀프 서비스 경험을 지원한다면 어떨까요? 이러한 기술 혁명은 이제 생성 AI 기반 자동화의 혁신적인 기능 덕분에 가능해졌습니다. 오늘날 AI Assistant 기술의 발전을 통해 기업은 전례 없는 속도로 비즈니스 성과를 달성할 수 있습니다.

IBM 뉴스레터

새로운 트렌드에 대한 최신 사고 리더십과 통찰력을 제공하는 뉴스레터와 주제 업데이트를 받아보세요.

지금 가입

더 많은 뉴스 레터

spot_img

최신 인텔리전스

spot_img