제퍼넷 로고

LLaMA의 원인? Meta는 더 작은 텍스트 방출 AI가 경쟁사보다 낫다고 생각합니다.

시간

요컨대 Meta는 고통스럽게도 LLaMA라고 불리는 대규모 언어 모델 Meta AI를 출시했습니다.

대규모 언어 모델이 지금 유행하고 있습니다. Microsoft와 Google은 검색 엔진을 강화하기 위한 최고의 모델을 구축하기 위해 경쟁하고 있습니다. 이러한 시스템은 범용이며 단백질 연구 또는 약물 발견과 같은 웹 검색 이상의 용도로 사용되었습니다.

이러한 모델은 연산 집약적이어서 개발자가 모델을 훈련하고 실행하는 것이 까다롭고 비용이 많이 들 뿐만 아니라 연구원이 이러한 시스템을 연구하기 어렵습니다.

그러나 LLaMA는 더 작고 최대 65억 개의 매개변수를 포함하므로 잠재적으로 사용하기가 더 쉽습니다. Meta의 수석 AI 과학자 Yann LeCun이 주장한 다른 주요 언어 모델보다 강력하지는 않지만 강력합니다. 그는 LLaMa가 Google의 540억 매개변수 PaLM을 포함하여 가장 큰 언어 모델만큼 우수하다고 말했습니다.

그리고 다른 모델에 대해 말하면서 Meta는 이러한 시스템이 사람들이 적절하게 살펴보고 면밀히 조사할 수 있는 범위에서 상당히 멀리 떨어져 있어 기계 학습 소프트웨어의 이해, 개선 및 평가를 방해한다고 주장했습니다.

"이 제한된 액세스는 이러한 대규모 언어 모델이 작동하는 방식과 이유를 이해하는 연구원의 능력을 제한하여 견고성을 개선하고 편향, 독성 및 잘못된 정보 생성 가능성과 같은 알려진 문제를 완화하려는 노력을 방해합니다." Meta – 독성과 잘못된 정보에 대해 모두 알고 있습니다. 말했다 금요일에. 

대신 Meta는 사람들이 공부할 수 있도록 기술을 조금 더 제공할 계획입니다. 경우에 따라 연구 목적으로 개발자에게 비상업적 라이선스로 언어 모델을 공개할 것이라고 밝혔습니다. 기술 문서를 읽을 수 있습니다. 여기에서 지금 확인해 보세요. 기술에 대해.

“우리는 학계 연구자, 시민 사회, 정책 입안자 및 산업계를 포함한 전체 AI 커뮤니티가 일반적으로 책임 있는 AI, 특히 책임 있는 대규모 언어 모델에 대한 명확한 지침을 개발하기 위해 협력해야 한다고 믿습니다. 우리는 커뮤니티가 LLaMA를 사용하여 무엇을 배우고 궁극적으로 구축할 수 있는지 기대합니다.”라고 Meta는 결론지었습니다.

Lensa AI 앱 제작자, BIPA 집단 소송에서 고소

바이러스성 AI 아바타 앱 Lensa의 제작자는 사람들의 사진을 동의 없이 수집하고 저장함으로써 일리노이의 생체 정보 및 개인 정보 보호법을 위반했다고 주장하는 집단 소송입니다.

Lensa AI는 사람들이 자신의 셀카를 기반으로 AI가 생성한 사진을 만드는 데 몰두하면서 작년 말 앱 스토어의 상위권으로 급상승했습니다. 수백만 명이 이 앱을 다운로드하여 AI 알고리즘을 사용하여 만화적이고 다채로운 방식으로 사람의 얼굴을 묘사하는 이미지를 생성하는 기능인 Magic Avatar를 사용했습니다.

이것은 약간 무해한 재미처럼 보일 수 있지만 미국 일리노이 주 거주자 그룹은 청구 앱을 만든 회사인 Prisma Labs는 AI 시스템을 교육하기 위한 명시적인 허가 없이 사용자로부터 이미지를 수집하고 저장했습니다. 마법의 아바타를 만들기 위해 사람들은 회사에 XNUMX개의 다른 사진뿐만 아니라 전체 사진 라이브러리에 대한 액세스 권한도 부여해야 했습니다.

"이 소송의 원고와 그들과 같은 수백만 명의 다른 사람들이 Lensa 앱을 다운로드했을 때 자신도 모르게 얼굴 생체 인식을 Prisma Labs에 제공했습니다." 말했다 원고를 대리하는 Loevy & Loevy의 변호사 Tom Hanson. "사람의 안면 형상은 지문과 같습니다. 그것은 법이 감당할 수 있는 최고 수준의 보호를 받을 자격이 있는 불변의 고유 식별자입니다."

등록 Prisma Labs에 의견을 요청했습니다. 

Bing과 Bard를 실행하면 Microsoft와 Google에서 수십억 달러의 비용이 듭니다.

AI로 구동되는 검색 챗봇은 실행 비용이 엄청나게 비싸고 Google과 Microsoft가 계산하는 데 수십억 달러의 비용이 들 것입니다. 오늘날 Google의 모기업 알파벳 회장인 MIPS 칩 대부 John Hennessy는 이야기 이러한 새로운 챗봇을 사용하는 Reuters 웹 검색 작업은 웹 브라우저에 입력하는 표준 쿼리보다 XNUMX배 더 많은 비용이 소요될 수 있습니다.

Morgan Stanley의 분석가들은 Google의 곧 출시될 Bard 챗봇이 회사가 일반적으로 3.3년 동안 받는 6조 50천억 개의 검색 쿼리 중 절반을 처리한다면 각 질문에 대한 XNUMX단어 응답을 생성하는 데 회사 운영 비용으로 XNUMX억 달러가 소요될 것이라고 추정했습니다. 

Microsoft는 또한 의심할 여지 없이 새로운 Bing 모델로 위기를 느끼고 있습니다. 그러나 이 회사의 최고 재무 책임자인 Amy Hood는 Bing이 사용자와 광고 수익을 끌어들이기 때문에 비용이 그만한 가치가 있다고 말했습니다. "그것은 우리가 논의하고 있는 서비스 비용을 포함하여 우리에게 점진적인 총 마진 달러입니다."라고 그녀는 말했습니다.

AI 복제 오디오를 사용하여 음성 기반 은행 로그인 크래킹

보안 전문가들은 이제 AI가 누군가의 목소리를 확실하게 복제하고 해당 프로필에 로그인할 수 있기 때문에 개인 계정에 액세스하는 데 사용되는 음성 기반 인증에 경종을 울리고 있습니다. 

한 실험에서 부기자 Joseph Cox는 자신의 목소리를 모방한 AI 소프트웨어에서 생성된 오디오 클립을 재생하여 자신의 온라인 은행 계좌에 로그인했습니다. 아래 동영상에서 확인할 수 있습니다.

그는 기성 기술을 사용하여 실제 목소리를 실제로 사용하지 않고 자신의 계정에 액세스할 수 있었습니다. 특히 소프트웨어를 미세 조정하기 위한 오디오 샘플이 많은 경우 AI를 사용하여 사람들의 목소리를 쉽고 저렴하게 복제할 수 있습니다. 유명인사, 정치인 및 기타 유형의 공인을 이러한 방식으로 타겟팅하기가 더 쉬울 수 있습니다.

사회 공학에 중점을 둔 회사인 SocialProof Security의 CEO인 Rachel Tobac은 이야기 Vice의 마더보드: "음성 '인증' 전환을 활용하는 모든 조직이 가능한 한 빨리 다단계 인증과 같은 안전한 신원 확인 방법으로 전환할 것을 권장합니다." 그녀는 음성 복제 공격이 "실생활에서 그 사람과 상호 작용할 필요 없이 완료될 수 있다"고 경고했습니다.

AI 챗봇 대 섹션 230

주목받는 미국 대법원 판례 of 곤잘레스 대 구글 새로운 질문을 제기했습니다: AI 챗봇이 미국의 보호 아래에서 보호됩니까 제 230 법?

대부분의 경우 섹션 230은 사용자가 게시한 콘텐츠에 대해 온라인 플랫폼이 법적 책임을 지지 않도록 보호합니다. 사용자가 AI 챗봇에게 질문을 하고 법적으로 의심스러운 말을 하면 제작자가 고소당할 수 있습니까?

닐 고서치 판사 이것을 가져왔다 진행중인 청문회에서 곤잘레스 케이스. 

"인공 지능은 시를 생성합니다."라고 그는 말했습니다. “오늘날 콘텐츠를 선택, 선택, 분석 또는 소화하는 것 이상의 콘텐츠가 될 논쟁을 생성합니다. 그리고 그것은 보호되지 않습니다. 그것이 맞다고 가정해 봅시다. 그런 다음 질문은 권장 사항에 대해 어떻게 해야 합니까?”

사건은 계속됩니다. ®

spot_img

최신 인텔리전스

spot_img