제퍼넷 로고

생성 AI의 간략한 역사 – DATAVERSITY

시간

생성 적 AI생성 적 AI
Ole.CNX / 셔터스톡

생성적 AI(Generative AI)는 1960년대에 챗봇 형태로 처음 도입된 기술로, 상당히 짧은 역사를 가지고 있습니다. 현재 고품질의 텍스트, 이미지, 비디오, 오디오 및 합성 데이터를 몇 초 만에 생성할 수 있는 인공 지능의 한 형태입니다. 그러나 생성적 적대 네트워크(GAN) 개념이 도입된 2014년이 되어서야 생성적 AI는 실제 사람을 녹음한 것처럼 보이는 이미지, 비디오, 오디오를 생성할 수 있을 정도로 진화했습니다.

현재 생성 AI는 ChatGPT 및 그 변형의 주요 구성 요소입니다.

1950s

생성적 AI는 다음을 기반으로 합니다. 기계 학습 그리고 딥러닝 알고리즘. 최초의 기계 학습 알고리즘은 1952년 Arthur Samuel이 체커 게임을 위해 개발했습니다. 그는 "기계 학습"이라는 문구도 생각해 냈습니다.

훈련이 가능한 최초의 "신경망"은 다음과 같습니다. 퍼셉트론, 1957년 코넬대학교 심리학자 Frank Rosenblatt에 의해 개발되었습니다. 퍼셉트론의 디자인은 현대 신경망과 매우 유사했지만 입력 및 출력 레이어를 분리하는 조정 가능한 임계값과 가중치를 포함하는 "하나의" 레이어만 있었습니다. 이 시스템은 시간이 너무 많이 걸려서 실패했습니다.

1960 년대와 1970 년대

생성적 AI의 첫 번째 역사적 사례는 ELIZA라고 불렸습니다. 챗봇의 초기 버전이라고도 볼 수 있습니다. 1961년 Joseph Weizenbaum이 창안했습니다. 엘리자 공감할 수 있도록 설계된 자연어와 반응을 사용하여 인간에게 반응하는 말하는 컴퓨터 프로그램이었습니다.

1960년대와 70년대에는 컴퓨터 비전과 몇 가지 기본 인식 패턴에 대한 기초 연구가 수행되었습니다. 안면 인식은 Ann B. Lesk, Leon D. Harmon 및 AJ Goldstein이 정확도를 크게 향상시키면서 극적인 도약을 이루었습니다(인간 얼굴 식별에서의 인간-기계 상호 작용, 1972). 연구팀은 입술의 굵기, 머리카락 색깔 등의 특징을 포함한 21개의 특정 마커를 개발해 얼굴을 자동으로 식별했다. 

1970년대에 Seppo Linnainmaa가 역전파를 사용하기 시작했습니다. 용어 "역 전파”는 학습 과정의 일부로 오류를 역방향으로 전파하는 과정입니다. 관련된 단계는 다음과 같습니다.

  1. 출력단에서 처리됨
  2. 역방향으로 배포되도록 전송됨 
  3. 훈련 및 학습을 위해 네트워크 계층을 이동했습니다. 

(역전파는 심층 신경망 훈련에 사용됩니다.) 

첫 번째 AI 겨울은 기계 학습과 인공 지능을 분리합니다

첫 번째 AI 겨울 시작하고 끝났다 대략 1973년부터 1979년까지 – 약속은 이루어졌지만 기대는 지켜지지 않았습니다. 인공 지능 연구에 자금을 지원했던 기관들(Darpa, NRC, 영국 정부)은 갑자기 인공 지능 개발에 있어 전진적인 움직임이 부족하다는 사실에 당황했습니다. 

그러나 머신러닝(ML)은 계속 발전했습니다. 여전히 정부 자금을 지원받고 있기 때문이 아니라, 머신러닝이 대응 도구로서 비즈니스에 매우 유용해졌기 때문입니다. 기계 학습 AI 훈련 기술로 시작됐지만 전화 응답, 적절한 사람에게 전화 연결 등 간단한 작업을 수행하는 데에도 사용될 수 있다는 사실이 밝혀졌습니다. ML 프로그램은 지능적인 대화를 수행할 수는 없지만 기본적이지만 매우 유용한 작업을 수행할 수 있습니다. 기업은 비용 효율적이고 유용한 도구를 포기하는 데 관심이 없었습니다.

기업들은 머신러닝 개발을 위해 자체 연구 자금을 지원하기로 결정했고, 전직 연구원들은 1990년대에 다시 AI와 합병될 때까지 별도의 산업으로 스스로를 재편했습니다.

신경망은 1944년 시카고 대학의 두 연구원인 Warren McCullough와 Walter Pitts에 의해 최초의 기능적 "다층" 인공 신경망이 제안되었지만, 코그니트론, 1975년 후쿠시마 쿠니히코(Fukushima Kunihiko)가 개발했다.

신경망은 머신러닝과 딥러닝 사용을 위한 기반을 마련합니다. 그들의 디자인은 입력 및 출력 레이어를 지원하며, 그 사이의 숨겨진 레이어는 입력 데이터를 변환하는 데 사용되므로 출력 레이어에 유용합니다. 이 새로운 디자인으로 얼굴 및 음성 인식이 크게 향상되었습니다. 히든 레이어는 딥 러닝의 기반도 제공합니다.

1979년에  후쿠시마 군히코 그는 계층적 다층 인공 신경망 개발을 제안했고, 이를 이름으로 명명했습니다. 네오코그니트론. 이것이 최초의 딥러닝 신경망이었습니다. 그의 디자인은 시각적 패턴을 식별하는 방법, 특히 손으로 쓴 문자를 인식하는 방법을 학습하는 컴퓨터의 능력을 지원했습니다. 그의 디자인은 또한 중요한 데이터를 수동으로 조정하여 인간이 특정 연결의 "무게"를 늘릴 수 있도록 허용했습니다.

1980년대와 두 번째 AI 겨울

1982년에 새로운 형태의 신경망을 개발한 존 홉필드(John Hopfield)가 또 다른 발견을 했습니다. 홉필드 넷 – 완전히 다른 접근 방식을 사용합니다. Hopfield 네트워크는 이전 시스템보다 인간의 뇌와 더 유사하게 기억을 수집하고 검색합니다.

그러나 두 번째 AI 겨울은 대략 1984년에 시작되어 1990년까지 계속되었으며, 생성 AI뿐만 아니라 인공 지능의 개발도 둔화되었습니다. 깨진 약속, 깨진 기대에 대한 분노와 좌절감이 너무 강해서 '인공지능'이라는 용어는 사이비과학의 지위를 차지했으며 종종 경멸의 대상이 되었습니다. AI에 대한 광범위한 회의론이 발전했습니다. 안타깝게도 대부분의 AI 및 딥러닝 연구에 대한 자금이 삭감되었습니다.

1986년에 David Rumelhart와 그의 팀은 새로운 방법 1970년대에 개발된 역전파 기술을 사용하여 신경망을 훈련시키는 방법입니다.

1980년대 후반 MOS(금속 산화물 반도체), 1959년에 개발)은 VLSI(대규모 통합) 보다 실용적이고 효율적인 인공 신경망을 제공했습니다. 이 조합을 A라고 불렀습니다. 보완적인 MOS (또는 CMOS).

딥 러닝은 1989년 Yann LeCun과 그의 팀이 신경망과 함께 역전파 알고리즘을 사용하여 손으로 쓴 우편번호를 인식하면서 기능적 현실이 되었습니다.

깊은 학습 알고리즘을 사용하여 데이터를 처리하고 인간의 사고 과정을 모방합니다. 데이터를 처리하고, 사물을 시각적으로 인식하고, 사람의 말을 이해하도록 설계된 알고리즘 계층을 사용합니다. 데이터는 각 계층을 통해 이동하며 이전 계층의 출력은 다음 계층에 필요한 입력을 나타냅니다. 딥 러닝에서 사용되는 추가 레이어는 더 높은 수준의 "추상화"를 제공하여 더 나은 예측과 더 나은 분류를 생성합니다. 사용되는 레이어가 많을수록 더 나은 예측 가능성이 커집니다. 

딥 러닝은 이미지 인식, 음성 인식을 지원하고 방대한 양의 데이터를 처리하는 매우 유용한 교육 프로세스가 되었습니다.

1990년대와 AI 연구 회복

1990년대부터 다시 인공지능에 대한 자금 지원이 시작되었기 때문에 훈련 메커니즘인 머신러닝 역시 자금을 지원받았다. 머신러닝 산업은 제1990의 AI 겨울까지 신경망 연구를 이어오며 XNUMX년대부터 본격적으로 꽃피우기 시작했다. 머신러닝의 지속적인 성공의 대부분은 인터넷의 압도적인 성장과 개인용 컴퓨터의 사용과 결합된 문자 및 음성 인식의 사용이었습니다.

"부스팅"이라는 개념은 1990년 논문에서 공유되었습니다. 약한 학습 가능성의 강점, 로버트 샤파이어 지음. 그는 약한 학습자 세트가 하나의 강한 학습자를 만들 수 있다고 설명했습니다. 부스팅 알고리즘 지도 학습 과정에서 편향을 줄이고, 여러 약한 학습자를 몇 개의 강한 학습자로 변환할 수 있는 기계 학습 알고리즘을 포함합니다. (약한 학습자는 약 50% 정도의 확률로 정확한 예측을 합니다.) 

컴퓨터 게임 산업은 생성적 AI의 발전에 도움을 준 공로로 상당한 공로를 인정받을 가치가 있습니다. 3D 그래픽 카드GPU(그래픽 처리 장치)의 전신인 는 비디오 게임의 그래픽 표현을 개선하기 위해 1990년대 초반에 처음 도입되었습니다. 

1997년에 Juergen Schmidhuber와 Sepp Hochreiter는 "장기 단기 기억” (LSTM )은 순환 신경망과 함께 사용됩니다. 현재 대부분의 음성 인식 훈련에서는 이 기술을 사용합니다. LSTM은 수천 단계 이전의 사건을 다루는 기억이 필요하고 대화 중에 종종 중요한 학습 작업을 지원합니다.

많은 게임 기술 발전을 담당하는 Nvidia는 1999년에 계산 속도가 XNUMX배 향상된 고급 GPU를 개발했습니다. 그들의 첫 번째 GPU는 GeForce 256

GPU가 비디오 게임 이상의 용도로 사용될 수 있다는 사실은 놀라운 깨달음이었습니다. 새로운 GPU는 인공 신경망에 적용되어 놀랍도록 긍정적인 결과를 얻었습니다. GPU 중앙 처리 장치에 비해 칩당 약 200배 많은 프로세서 수를 사용하여 기계 학습에 매우 유용해졌습니다. (중앙 처리 장치, 또는 CPU는 더 유연하고 더 광범위한 계산을 수행하는 반면 GPU는 특정 사용 사례에 맞게 조정되는 경향이 있습니다.)

2000s

얼굴 인식 그랜드 챌린지, 개선을 위한 프로모션 얼굴 인식 기술은 미국 정부의 자금 지원을 받아 2004년과 2006년부터 진행되었습니다. 그 결과 새로운 얼굴 인식 기술과 얼굴 인식 성능이 탄생했습니다. 새로 개발된 알고리즘은 2002년에 사용된 얼굴 인식 알고리즘보다 최대 XNUMX배 더 정확했습니다. 일부 알고리즘은 일란성 쌍둥이 간의 차이도 식별할 수 있었습니다.

2010년대와 가상 비서, 챗봇

4년 2011월 XNUMX일, 시리기능적으로 고려된 최초의 디지털 가상 비서인 는 iPhone 4S에서 서비스로 제공되었습니다. 사용 잡담 또한 크게 증가했습니다. 

2014년에는 생성적 적대 신경망(GAN)이라는 개념이 제시되었습니다. GAN은 실제 상황을 녹음한 것처럼 보이는 이미지, 비디오, 오디오를 만드는 데 사용됩니다.          

생성적 적대 신경망은 다음을 사용합니다. 두 개의 신경망 동시 적대적 훈련을 받은 신경망: 하나의 신경망은 판별자 역할을 하고 다른 신경망은 생성자 역할을 합니다. 판별자는 생성된 데이터와 실제 데이터를 구별하도록 훈련되었습니다. 생성기는 합성 데이터를 생성하고 실제 데이터를 모방하려고 시도합니다. 연습을 통해 생성기는 판별자를 속이기 위해 더욱 사실적인 녹음을 생성하는 데 더 능숙해질 수 있습니다. GAN은 불가능하지는 않더라도 인공적인 것으로 인식하기 어려운 합성 데이터를 생성할 수 있습니다.

2020년대와 더욱 스마트해진 챗봇

2022년 XNUMX월 OpenAI는 다음과 결합된 생성 AI인 ChatGPT를 출시했습니다. 큰 언어 모델. ChatGPT와 그 변형은 새로운 수준의 인공 지능을 달성했습니다. 이러한 "더 똑똑한 챗봇"은 연구를 수행하고, 합리적으로 좋은 글쓰기를 지원하고, 사실적인 비디오, 오디오 및 이미지를 생성할 수 있습니다.

생성적 AI 훈련과 대규모 언어 모델의 결합으로 생각하고 추론하는 능력을 갖춘 인공지능이 탄생했다. 그들은 또한 "상상"하는 능력을 가지고 있을 수도 있습니다. ChatGPT는 환상을 사용하는 것으로 해석될 수 있는 환각 혐의로 기소되었습니다.

spot_img

최신 인텔리전스

spot_img