Logo Zephyrnet

Sở hữu trí tuệ là một phần không thể thiếu đối với Quy định về AI và hiểu sai sẽ trao thêm quyền lực cho các ông lớn công nghệ

Ngày:

Tập hợp bản quyền robot ácCác chính phủ trên khắp thế giới đang xem xét cách họ có thể – và nên – điều chỉnh việc phát triển và triển khai các công nghệ trí tuệ nhân tạo (AI) ngày càng mạnh mẽ và đột phá. Úc cũng không ngoại lệ. Vào ngày 1 tháng 2023 năm XNUMX, Chính phủ Úc công bố phát hành hai bài báo nhằm giúp 'đảm bảo sự phát triển của công nghệ trí tuệ nhân tạo (AI) ở Úc là an toàn và có trách nhiệm'. Đầu tiên trong số này là Báo cáo phản hồi nhanh: AI sáng tạo, được ủy quyền bởi Hội đồng Khoa học và Công nghệ Quốc gia Úc theo yêu cầu của Bộ trưởng Bộ Công nghiệp và Khoa học, Ed Husic, hồi tháng Hai. Các Báo cáo phản hồi nhanh đánh giá các rủi ro và cơ hội tiềm ẩn liên quan đến AI và nhằm cung cấp cơ sở khoa học cho các cuộc thảo luận về con đường phía trước. Bài báo thứ hai là AI an toàn và có trách nhiệm ở Úc Tài liệu thảo luận mà, theo thông cáo báo chí của Bộ trưởng, 'vận động các phản ứng quản lý và quy định hiện có ở Úc và nước ngoài, xác định các lỗ hổng tiềm năng và đề xuất một số tùy chọn để tăng cường khuôn khổ quản lý việc sử dụng AI an toàn và có trách nhiệm.'

Tài liệu thảo luận tìm kiếm phản hồi về cách Úc có thể giải quyết các rủi ro tiềm ẩn của AI. Nó cung cấp một cái nhìn tổng quan về quản trị và quy định AI trong nước và quốc tế hiện có, đồng thời xác định những lỗ hổng tiềm năng và các cơ chế bổ sung – bao gồm các quy định, tiêu chuẩn, công cụ, khuôn khổ, nguyên tắc và thông lệ kinh doanh – để hỗ trợ phát triển và áp dụng AI. Nó tập trung vào việc đảm bảo AI được sử dụng một cách an toàn và có trách nhiệm, nhưng không xem xét tất cả các vấn đề liên quan đến AI, chẳng hạn như tác động của AI đối với thị trường lao động và kỹ năng, an ninh quốc gia hoặc việc sử dụng AI cụ thể cho quân đội.

Một lĩnh vực quan trọng khác được thể hiện rõ ràng loại trừ từ cuộc tư vấn này là tài sản trí tuệ. Theo tôi, đó là một thiếu sót nghiêm trọng. Dường như cho rằng sở hữu trí tuệ bằng cách nào đó có thể tách biệt khỏi các vấn đề khác được đề cập trong tài liệu thảo luận. Đây là một giả định sai lầm, đặc biệt liên quan đến thực tiễn kinh doanh. Trong thế giới đương đại, sở hữu trí tuệ là trọng tâm của nhiều hoạt động kinh doanh và các luật cũng như quy định mà chúng ta đưa ra xung quanh sở hữu trí tuệ có thể là sự khác biệt giữa một hoạt động kinh doanh khả thi và một hoạt động kinh doanh không thể thực hiện được. Và không phải mọi hoạt động kinh doanh có thể được luật SHTT cho phép đều nhất thiết là mong muốn hoặc mang lại lợi ích ròng cho xã hội. Nếu chúng ta không xem xét tác động qua lại giữa luật sở hữu trí tuệ, thực tiễn kinh doanh và các hình thức quy định khác, thì chúng ta có nguy cơ mắc phải những sai lầm có thể rất khó sửa chữa trong tương lai.

Bài viết này được thúc đẩy bởi, nhưng chủ yếu không phải về quá trình tham vấn của Australia (mặc dù tôi sẽ quay lại vấn đề đó ở phần cuối). Đó là về cách quyền sở hữu trí tuệ và các hình thức quy định khác có thể vận hành để tập trung mức độ quyền lực ngày càng tăng vào tay một số công ty công nghệ lớn – chẳng hạn như Microsoft (thông qua quan hệ đối tác với OpenAI), Google và Amazon – đã tăng lên trong những năm gần đây với tư cách là những người chơi thống trị trong AI và các công nghệ hỗ trợ của nó. Dựa trên những phát triển gần đây, tôi tin rằng giai đoạn đã được thiết lập để thực hiện chính xác các loại luật và quy định có lợi nhất cho các công ty này, dưới chiêu bài bảo vệ những người đổi mới, người sáng tạo nội dung và công chúng nói chung trước các mối đe dọa khác nhau đã nói được trình bày bởi AI.

Một cơn bão hoàn hảo đang hình thành. Quy định phức tạp xung quanh việc phát triển, đào tạo và triển khai các hệ thống AI có thể kết hợp với các hạn chế dựa trên sở hữu trí tuệ đối với việc sử dụng dữ liệu đào tạo và đối với kết quả đầu ra của AI, để tạo lợi thế cho các công ty giàu nhất và có nguồn lực tốt nhất thế giới. Cơn bão đang được thúc đẩy bởi sự cường điệu và gieo rắc nỗi sợ hãi, mặc dù phần lớn trong số đó có thể có mục đích tốt, nhưng lại mang lại lợi ích cho các công ty công nghệ lớn. 

Quyền sở hữu trí tuệ và nghệ thuật ăn cắp

Có vẻ như bất cứ khi nào luật SHTT được mở rộng hoặc 'tăng cường', điều này đều được các nhà lập pháp và cơ quan hữu quan đánh giá là có lợi cho người sáng tạo và đổi mới. Tuy nhiên, thực tế hoàn toàn khác với lý tưởng không tưởng này. Trong cuốn sách gần đây của họ, Chủ nghĩa tư bản chokepoint, Rebecca Giblin và Cory Doctorow phân tích vô số cách thức mà một số lượng rất nhỏ các tập đoàn lớn đang chiếm phần lớn lợi nhuận trong các ngành công nghiệp sáng tạo và internet bằng cách tạo ra 'điểm nghẽn' giữa người sáng tạo và người tiêu dùng. Mỗi người trong chúng ta đang đóng góp số tiền khó kiếm được của mình cho Google (bao gồm cả YouTube), Facebook/Meta, Apple, Amazon, Spotify, ba nhãn hiệu lớn kiểm soát việc ghi âm và xuất bản nhạc, năm công ty kiểm soát việc xuất bản sách thương mại, một công ty (iHeartMedia) thống trị đài phát thanh Hoa Kỳ và đang ngày càng lan rộng các xúc tu của mình ra khắp thế giới, và một công ty (Live Nation Entertainment) đang bận rộn thu dọn ngành công nghiệp âm nhạc trực tiếp. Và gần như không có đủ số tiền của chúng tôi - và có thể ít hơn nhiều so với bạn nghĩ - sẽ chuyển đến tài khoản ngân hàng của các nghệ sĩ sáng tạo mà chúng tôi tin rằng chúng tôi đang hỗ trợ bởi sự bảo trợ của chúng tôi.

(Tiết lộ đầy đủ: Văn phòng của Rebecca ở ngay gần bàn làm việc của tôi tại Trường Luật Melbourne. Nhưng đây không phải là lý do tại sao tôi nói với bạn điều đó Chủ nghĩa tư bản chokepoint là một cuốn sách xuất sắc và mở mang tầm mắt, và bạn nên mua nó và đọc nó. Trong trường hợp bạn đang thắc mắc, tôi đã tự trả tiền cho bản sao của mình – trớ trêu thay, trong phiên bản Kindle!)

Việc mở rộng thời hạn, phạm vi hoặc sức mạnh của luật bản quyền chưa bao giờ – ít nhất là trong thời kỳ hiện đại – mang lại bất kỳ lợi ích nào cho đại đa số những người tạo ra các tác phẩm có bản quyền có giá trị. Như Giblin và Doctorow đã nói một cách sâu sắc, "trao thêm bản quyền cho những người sáng tạo đang đấu tranh chống lại những người mua quyền lực cũng giống như đưa thêm tiền ăn trưa cho đứa trẻ bị bắt nạt của bạn." Những kẻ bắt nạt vẫn ăn cắp tiền ăn trưa của con bạn, nhưng giờ đây nó chỉ làm cho những kẻ bắt nạt đó trở nên giàu có hơn! Đó chính xác là những gì đã xảy ra khi người ta xác định rằng âm nhạc lấy mẫu là vi phạm bản quyền. Bạn có thể nghĩ rằng đây sẽ là một tin tuyệt vời đối với các nghệ sĩ có tác phẩm đang được lấy mẫu trong khi trên thực tế, đó hầu như là một tin tuyệt vời đối với các nhãn hiệu mạnh đã ngay lập tức tuyên bố hoặc giành được quyền sở hữu các quyền liên quan và bắt đầu thu hút sự chú ý- phí giấy phép tưới nước, trong khi sử dụng kế toán sáng tạo và các điều khoản hợp đồng bóc lột để giữ phần lớn số tiền thu được cho mình.

Trong AI, Kiểm soát nội dung là sức mạnh

Chúng tôi đã thấy các dấu hiệu về cách các điểm nghẽn có thể xuất hiện trong lĩnh vực công nghệ AI. Ví dụ, liên quan đến ngành minh họa chứng khoán, có một số bằng chứng rằng hoạt động kinh doanh cấp phép hình ảnh bị chi phối bởi một số lượng tương đối nhỏ các nhà cung cấp: chủ yếu là Shutterstock; Getty Images (bao gồm cả iStock); và Chứng khoán Adobe. Hai trong số các công ty này đã tham gia vào các hệ thống AI tổng hợp, mặc dù theo những cách rất khác nhau.

Một mặt, Shutterstock đã 'hợp tác' với OpenAI trong việc đào tạo và sử dụng OpenAI's Hệ thống AI tổng hợp văn bản thành hình ảnh DALL-E. Theo sự sắp xếp này, Shutterstock cung cấp hình ảnh (và văn bản mô tả có liên quan) từ cơ sở dữ liệu của nó để OpenAI sử dụng trong việc đào tạo các mô hình DALL-E. Trong khi đó, người dùng Shutterstock có quyền truy cập vào DALL-E để tạo hình ảnh dựa trên lời nhắc văn bản. Mặc dù điều này có thể dẫn đến việc các nghệ sĩ bị mất doanh thu nếu người dùng chọn hình ảnh tùy chỉnh do AI tạo ra thay vì tác phẩm của nghệ sĩ, nhưng Shutterstock đã hứa sẽ đền bù cho các nghệ sĩ khi sử dụng tác phẩm của họ để đào tạo các mô hình AI (có lẽ từ phí giấy phép đã trả cho Shutterstock của OpenAI).

Mặt khác, Getty Images đã kiện Ổn định AI vì (trong số những thứ khác) vi phạm bản quyềnĐộ ổn định AI tự mô tả là 'công ty AI tạo nguồn mở hàng đầu thế giới' với mục tiêu 'tối đa hóa khả năng tiếp cận của AI hiện đại để truyền cảm hứng sáng tạo và đổi mới toàn cầu'. Phiên bản đầu tiên của mô hình tổng quát chuyển văn bản thành hình ảnh, Stable Diffusion, được phát hành vào tháng 2022 năm 12. Getty Images cáo buộc rằng Stability AI đã tham gia vào hành vi 'vi phạm trắng trợn quyền sở hữu trí tuệ của Getty Images' ở quy mô đáng kinh ngạc' bằng cách sao chép hơn XNUMX triệu hình ảnh từ cơ sở dữ liệu của nó mà không được phép hoặc bồi thường. 

Sự tương phản giữa các mô hình kinh doanh của OpenAI và Stability AI không thể rõ ràng hơn. OpenAI - bất chấp tên gọi của nó - là bất kỳ thứ gì ngoại trừ mở và chưa phát hành mã nguồn DALL-E hoặc các mô hình được đào tạo ra công chúng. Nội dung của bộ dữ liệu đào tạo của nó vẫn chưa được biết, cũng như các chi tiết về thỏa thuận của nó với Shutterstock. Điều này có tất cả các dấu hiệu của một nút thắt trong quá trình sản xuất. Một mặt, chúng ta có các nghệ sĩ đang tìm cách kiếm sống từ hình ảnh của họ, mặt khác, chúng ta có những người tiêu dùng tiềm năng của các dịch vụ AI sáng tạo. Và, ở giữa, OpenAI – người gác cổng của các dịch vụ AI tổng hợp độc quyền của nó – hợp tác với Shutterstock – bộ điều khiển của một trong những kho hình ảnh chứng khoán lớn nhất hành tinh – với cơ hội tiềm năng để khóa cả hai phía của thị trường, nếu chỉ họ mới có thể trở nên đủ ưu thế.

Trong khi đó, Stability AI (cũng cung cấp các dịch vụ AI tổng hợp có trả phí) đã mở mã nguồn và các mô hình của mình, rõ ràng đã được đào tạo bằng cách sử dụng văn bản và hình ảnh lấy từ internet (bao gồm cả trang web được cho là của Getty Images) mà rõ ràng không quan tâm đến bất kỳ vấn đề bản quyền mà điều này có thể phát sinh. Việc phát hành các mô hình đã được đào tạo sẽ hỗ trợ các công ty khác tham gia thị trường, ngay cả khi họ không có nguồn tài chính hoặc máy tính để tự đào tạo các mô hình (nó đã được báo cáo rằng chi phí hoạt động và đám mây của Stability AI đã vượt quá 50 triệu đô la Mỹ, trước khi huy động được 101 triệu đô la Mỹ vốn đầu tư mạo hiểm vào tháng 2022 năm XNUMX). Nhưng nếu Getty Images thành công trong việc chứng minh rằng bản quyền của họ đã bị vi phạm trong quá trình đào tạo các mô hình, thì có khả năng chúng sẽ phải bị thu hồi, khiến bất kỳ ai đang cố gắng xây dựng doanh nghiệp dựa trên các mô hình mở của Stability AI bị mắc kẹt. Điều này sẽ trao lại phần lớn quyền lực cho các công ty tổng hợp bản quyền và các công ty AI lớn, được đầu tư nhiều tiền mặt, là những công ty phù hợp nhất để cung cấp cho họ các giao dịch hấp dẫn.

Nhân tiện, tôi lưu ý rằng các vụ kiện tập thể về vi phạm bản quyền cũng đã được đưa ra ở Hoa Kỳ bởi các nhà phát triển phần mềm chống lại GitHub, Microsoft và OpenAIbởi các nghệ sĩ chống lại Stability AI, DeviantArt và Midjourney. Các nguyên đơn trong những trường hợp này có lẽ nên cẩn thận với những gì họ mong muốn – mặc dù họ có thể đang tìm kiếm quyền kiểm soát và bồi thường cho người sáng tạo, nhưng bất kỳ thành công nào họ đạt được đều có nhiều khả năng rơi vào tay các nhà tổng hợp bản quyền hơn.

Phúc cho những Kẻ sợ hãi, vì họ sẽ khơi dậy FUD!

Không có gì khuyến khích hành động vội vàng và thiếu cân nhắc hiệu quả hơn nhiều so với nỗi sợ hãi, sự không chắc chắn và nghi ngờ (FUD). Và không thiếu FUD được tạo ra xung quanh những phát triển gần đây của AI. Tất nhiên, phần lớn điều này là kết quả của mức độ thiếu hiểu biết chung về các công nghệ rất phức tạp này và cách chúng hoạt động. Nhưng một số nỗi sợ hãi đang được khơi dậy bởi những người mà bạn có thể nghĩ rằng lẽ ra nên biết rõ hơn, và những người có bằng cấp và danh tiếng thấm nhuần những nhận xét của họ với quyền hạn và ảnh hưởng được nâng cao.

Bạn có thể đã nghe một câu chuyện gần đây về bài phát biểu của Đại tá Tucker 'Cinco' Hamilton, Giám đốc Hoạt động và Thử nghiệm AI của Lực lượng Không quân Hoa Kỳ, tại Hội nghị thượng đỉnh về khả năng tác chiến trên không và không gian trong tương lai, trong đó ông kể một giai thoại về một mô phỏng trong đó một máy bay không người lái do AI điều khiển đã 'giết' 'người điều hành' (được mô phỏng) của nó khi họ can thiệp vào mục tiêu chính của nó ('giết kẻ thù') bằng cách cố gắng ra lệnh cho nó không để giết kẻ thù. Vấn đề duy nhất với câu chuyện này là nó không thực sự xảy ra – USAF sau đó đã phủ nhận điều đó, và Đại tá Hamilton kể từ đó đã nói rằng ông ấy 'nói sai'và rằng anh ta chỉ đơn thuần trình bày một 'thí nghiệm tưởng tượng' giả định bắt nguồn từ bên ngoài quân đội. Các vấn đề với Tuy nhiên, vấn đề này với câu chuyện là một số phương tiện truyền thông đã chọn lợi dụng sự ngờ vực của công chúng để gây nghi ngờ về những lời phủ nhận - ví dụ: Sổ đăng ký đã đi với 'ai biết?', trong khi news.com.au, phần nào có thể đoán trước được, đã giữ tiêu đề báo động ban đầu của nó ('Máy bay không người lái AI giết chết người điều khiển của nó trong mô phỏng') và hạ thấp sự từ chối là 'kiểm soát thiệt hại', thẳng thắn đổ lỗi cho USAF thay vì thất bại của báo chí thực sự là như vậy.

Thật không may, tại thời điểm này, các nhà báo và công chúng đã sẵn sàng tin vào những loại câu chuyện này, thay vì đối xử với chúng bằng sự hoài nghi mà chúng đáng phải nhận. 

Thời Gian chúng tôi được biết rằng hơn 1,000 người, bao gồm cả Elon Musk và nhiều 'chuyên gia AI', đã ký kết thư ngỏ được xuất bản bởi Viện Cuộc sống Tương lai bao gồm cả những lo ngại rằng 'những bộ óc phi nhân loại ... cuối cùng có thể đông hơn, thông minh hơn, lỗi thời và thay thế chúng ta' và rằng 'chúng ta có nguy cơ mất kiểm soát nền văn minh của mình', không có gì ngạc nhiên khi nhiều người trong chúng ta có thể kết luận rằng đây là những mối đe dọa thực sự và hiện tại.

Thời Gian chúng tôi được biết về một nghiên cứu của Đại học Stanford cho thấy hơn một phần ba các nhà nghiên cứu tin rằng AI có thể dẫn đến 'thảm họa cấp độ hạt nhân', hoặc là chúng tôi được biết rằng một trong những 'bố già của AI', Geoffrey Hinton, đã từ chức khỏi vai trò của mình tại Google để nói một cách thoải mái về các mối đe dọa do AI gây ra, so sánh chúng với 'vũ khí hạt nhân', không phải là vô lý khi cho rằng AI gây ra mối đe dọa có thể so sánh với vũ khí hạt nhân. Rốt cuộc, nếu Geoffrey Hinton không biết nội dung của anh ấy về chủ đề này, thì ai sẽ biết?!

Thời Gian chúng tôi được biết về các kỹ sư của Microsoft – những người đã làm việc với GPT-4 trong nhiều tháng trước khi phát hành ra công chúng trong khi tích hợp nó vào công cụ tìm kiếm Bing – kết luận rằng GPT-4 thể hiện những dấu hiệu ban đầu của 'trí thông minh nhân tạo' (AGI), thì tại sao chúng ta lại không tin rằng chúng ta đang thực sự sắp phát triển AGI? Mặc dù, công bằng mà nói, đã có một số phương tiện truyền thông - bao gồm Phó, Các Bán Chạy Nhất của Báo New York TimesForbes, trong số những người khác – đã tìm kiếm các quan điểm thay thế và đối xử với những tuyên bố 'nhướn mày' này bằng thái độ hoài nghi mà chúng xứng đáng được nhận.

Thật khó để hiểu tại sao rất nhiều người có kinh nghiệm và hiểu biết lại đảm nhận vai trò báo trước về sự diệt vong sắp xảy ra của chúng ta dưới bàn tay ảo của những cỗ máy siêu thông minh. Họ chắc chắn không phải là tất cả những người khổng lồ công nghệ, và hầu hết trong số họ dường như hoàn toàn chân thành. Có lẽ có một cái gì đó để lời giải thích được đưa ra bởi nhà phân tích Alberto Romero của Cambrian AI, người khẳng định một cách thuyết phục rằng có một yếu tố liên quan đến suy nghĩ theo nhóm gần như tôn giáo: '[t]hey thuộc loại khác thường với đức tin khác thường … được xây dựng dựa trên logic hời hợt nhưng khó lật tẩy mà họ đã thuyết phục họ trở thành những người tiên đoán thời hiện đại về một tương lai mà tốt nhất là đặc biệt vinh quang và tệ nhất là chương kết thúc của chúng ta.'

Tuy nhiên, bất kể động cơ là gì, thì sự sợ hãi đã có hiệu quả và đang có lợi cho các công ty công nghệ lớn, cho đến nay, đã đầu tư nhiều nhất – và đương nhiên là hy vọng thu được nhiều lợi ích nhất – từ công nghệ AI.

Cẩn thận với Grifts mang Geeks

Với tất cả FUD hiện đang bao quanh AI, các chính phủ đang chịu áp lực ngày càng tăng để (được cho là) ​​hành động để bảo vệ những công dân có liên quan trước những tác hại tiềm ẩn mà AI có thể gây ra. Vào ngày 16 tháng 2023 năm XNUMX, Giám đốc điều hành của OpenAI, Sam Altman, xuất hiện trước một tiểu ban Tư pháp của Thượng viện Hoa Kỳ, gợi ý rằng "chính phủ Hoa Kỳ có thể xem xét kết hợp các yêu cầu cấp phép và thử nghiệm để phát triển và phát hành các mô hình AI trên ngưỡng khả năng." Điều đó có vẻ kỳ lạ. Các công ty công nghệ Mỹ công khai từ bao giờ vậy? ủng hộ chịu sự điều chỉnh bổ sung của chính phủ? Trừ khi, tất nhiên, nó có lợi cho họ. Thật vậy, bất cứ khi nào bạn thấy những người hoặc tổ chức quyền lực vận động hành lang cho chi tiết theo quy định, nói chung là một vụ cá cược an toàn rằng họ tìm kiếm cho thuê. Để xem điều đó có thể áp dụng như thế nào ở đây, chúng ta cần xem xét kỹ hơn một chút về công nghệ tiên tiến nhất trong các mô hình ngôn ngữ lớn (LLM), như GPT-3 và GPT-4, cũng như hướng phát triển của công nghệ này .

Cho đến nay, sự phát triển của các LLM ấn tượng hơn bao giờ hết chủ yếu dựa vào nguyên tắc 'càng lớn càng tốt'. Trong bài báo năm 2020 giới thiệu về GPT-3, Mô hình ngôn ngữ ít người học, Các nhà nghiên cứu của OpenAI đã tiết lộ rằng mô hình làm nền tảng cho phiên bản ChatGPT miễn phí ban đầu có 175 tỷ tham số và được đào tạo trên một tập dữ liệu bao gồm 300 tỷ mã thông báo (trong ngữ cảnh này, 'mã thông báo' thường là một từ, một phần của từ hoặc một ký hiệu chấm câu, trong văn bản được sử dụng để đào tạo). Các ước tính về yêu cầu đào tạo thực tế khác nhau, nhưng chắc chắn rằng cần có một nền tảng phần cứng với hàng nghìn đơn vị xử lý cao cấp (giá trị theo đơn đặt hàng là 10,000 USD), với thời gian đào tạo được tính bằng tuần và tổng chi phí tính toán được tính bằng hàng triệu đô la – tất cả, trong trường hợp của OpenAI, được cung cấp và tài trợ bởi Microsoft.

Có rất ít thông tin chắc chắn về GPT-4. Như đã nêu trong OpenAI's Báo cáo kỹ thuật GPT-4, '[g]do cả bối cảnh cạnh tranh và ý nghĩa an toàn của các mô hình quy mô lớn như GPT-4, báo cáo này không có thêm thông tin chi tiết nào về kiến ​​trúc (bao gồm cả kích thước mô hình), phần cứng, điện toán đào tạo, xây dựng tập dữ liệu, phương pháp đào tạo, hoặc tương tự.' Nhưng trong một bài nói chuyện được trình bày tại MIT vào ngày 22 tháng 2023 năm XNUMX, Sebastien Bubeck của Microsoft (người đứng đầu nhóm chịu trách nhiệm tích hợp GPT-4 vào Bing) ngụ ý rằng kích thước mô hình ở mức một nghìn tỷ tham số, tức là khoảng sáu lần kích thước của GPT-3. Với những tiến bộ về phần cứng và kỹ thuật đào tạo, có khả năng số lượng đơn vị xử lý và thời gian đào tạo sẽ không tăng lên theo số lượng này. Tuy nhiên, chi phí tính toán cho bất kỳ ai khác để đào tạo một mô hình như vậy gần như chắc chắn sẽ vượt quá mười triệu đô la. Và điều đó không bao gồm quá trình phát triển và thử nghiệm trước đó - bạn sẽ không xây dựng và đào tạo thành công một trong những mô hình khổng lồ này trong lần thử đầu tiên của mình!

Mặc dù việc chạy một mô hình được đào tạo trước cần ít tài nguyên hơn đáng kể so với việc đào tạo mô hình, nhưng các yêu cầu về phần cứng để chạy GPT-4 cũng rất đáng kể. Một mô hình tham số nghìn tỷ (có thể) yêu cầu hai nghìn tỷ byte, tức là hai terabyte, bộ nhớ – không phải dung lượng lưu trữ/ổ đĩa (mặc dù cũng vậy), nhưng bộ nhớ thực tế – khi sử dụng, cộng với bộ nhớ bổ sung để lưu trữ đầu vào, đầu ra và dữ liệu làm việc khác. Nếu được thực thi bằng cách sử dụng cùng các đơn vị xử lý cao cấp được sử dụng trong đào tạo (rất có thể GPU NVIDIA A100 80GB), tổng chi phí của các thành phần để xây dựng một nền tảng phần cứng phù hợp nhằm phục vụ một phiên bản duy nhất của kiểu máy sẽ vào khoảng một triệu đô la và kết quả là mức tiêu thụ điện năng cao nhất vào khoảng 20 kW (làm cho điều hòa không khí tốt cũng là một yêu cầu thiết yếu). Và để phục vụ đồng thời hàng nghìn người dùng với thời gian phản hồi nhanh, có khả năng thiết lập phần cứng này sẽ cần được sao chép hàng chục, nếu không muốn nói là hàng trăm lần. Do đó, không có gì ngạc nhiên khi OpenAI đang khiến người dùng phải trả tiền để có quyền truy cập cao cấp vào ChatGPT và để sử dụng API, đồng thời khiến những người dùng không trả phí phải chịu đựng hiệu suất bị hạ cấp!

Tất nhiên, điểm cuối cùng là rất ít người dùng cuối sẽ có thể lưu trữ phiên bản mô hình của riêng họ, chẳng hạn như GPT-4. Thay vào đó, họ sẽ phụ thuộc vào các nhà cung cấp đám mây để lưu trữ các mô hình và cung cấp các dịch vụ khác nhau, ở các mức giá khác nhau, tùy thuộc vào yêu cầu của người dùng về các tiêu chí như hiệu suất, quyền riêng tư dữ liệu và bảo mật. Và tất nhiên, các nhà cung cấp điện toán đám mây lớn nhất là Microsoft (thông qua nền tảng Azure), Amazon (thông qua Amazon Web Services, AWS) và Google (thông qua Google Cloud Platform, GCP). Điều đó sẽ mang lại cho các công ty này một sự kiểm soát ảo đối với việc cung cấp các loại dịch vụ AI này.

Nhưng điều gì sẽ xảy ra nếu có thể xây dựng các mô hình nhỏ hơn, không độc quyền có khả năng đạt được hiệu suất tương đương với các mô hình quái vật như GPT-4? Khi nó xảy ra, đó chính xác là hướng mà nghiên cứu về LLM bên ngoài OpenAI đang diễn ra. Trong một bài báo xuất bản vào tháng 2023 năm XNUMX, LLaMA: Mô hình Ngôn ngữ Nền tảng Mở và Hiệu quả, Các nhà nghiên cứu của Meta (tức là Facebook) đã báo cáo các mô hình đào tạo chỉ có bảy tỷ tham số để đạt được hiệu suất tương đương với các LLM lớn nhất. Hơn nữa, họ đã làm điều đó bằng cách sử dụng 'bộ dữ liệu có sẵn công khai độc quyền mà không cần dùng đến bộ dữ liệu độc quyền và không thể truy cập được' (như OpenAI đã làm với các mô hình GPT của mình). Và họ tuyên bố rằng một phiên bản của mô hình LLaMA với 13 tỷ tham số vượt trội so với mô hình GPT-175 3 tỷ tham số trên hầu hết các điểm chuẩn. 

Chi phí đào tạo cho các mô hình nhỏ hơn này vẫn còn rất cao, vào khoảng 5 triệu đô la Mỹ (giả sử 21 ngày đào tạo trên 2,048 GPU A100, như đã báo cáo trong bài báo LLaMA). Nhưng trong một 'FU' khổng lồ cho OpenAI, Meta đã mở nguồn mã đào tạo của mình và phát hành tất cả các mô hình được đào tạo của mình cho cộng đồng nghiên cứu. Mặc dù nó dự định làm điều này một cách có kiểm soát, nhưng người được đào tạo trọng lượng mô hình đã nhanh chóng bị rò rỉ trên internet, làm cho chúng có sẵn cho tất cả mọi người.

Các mô hình LLaMA đi kèm với các điều kiện cấp phép hạn chế sử dụng thương mại. Tuy nhiên, đã có những dự án, chẳng hạn như RedPajama, đang được tiến hành để sao chép kết quả của Meta và để tạo các mô hình không bị cản trở bởi những hạn chế này. Đồng thời, có một số nỗ lực đang diễn ra để cho phép các mô hình nhỏ hơn này chạy trên (tương đối) hàng hóa giá rẻ và phần cứng cấp tiêu dùng. Ngay bây giờ, nếu muốn, bạn có thể chạy chatbot dựa trên LLM của riêng mình tại nhà, trên PC trị giá dưới 3000 đô la. Nó sẽ không tốt bằng ChatGPT (hãy dùng thử Q8-Chat của Intel trên nền tảng Hugging Face để có cảm giác về những gì có thể xảy ra ở cấp thấp), nhưng nó sẽ là tất cả của bạn, hoàn toàn riêng tư và bảo mật, đồng thời tốt hơn nhiều so với bất kỳ thứ gì bạn đã thấy trước tháng 2022 năm XNUMX!

Tôi dự đoán rằng các dự án nghiên cứu dựa trên cộng đồng này sẽ thắng, với kết quả là 'AI lớn' (tức là những công ty như OpenAI/Microsoft và Google) sẽ không thiết lập được vị thế gần như độc quyền đối với các dịch vụ dựa trên AI mà họ đang kỳ vọng rõ ràng. để có được. (Tuy nhiên, vì lợi ích của sự cân bằng, Tôi lưu ý rằng không phải ai cũng chia sẻ sự lạc quan của tôi.) Theo quan điểm của tôi, chỉ có một điều có thể ngăn chặn quá trình 'dân chủ hóa' LLM này xảy ra: quy định. Nếu chính phủ Hoa Kỳ thực sự đưa ra chế độ cấp phép và thử nghiệm cho 'các mô hình AI trên ngưỡng khả năng' (bất kể điều đó có nghĩa là gì) thì điều đó sẽ không gây trở ngại thực sự cho các công ty như OpenAI – họ đã mất nhiều năm xây dựng danh tiếng là 'người giám sát có trách nhiệm' đối với công nghệ của họvà rõ ràng họ có sức mạnh kinh tế và chính trị để vượt qua mọi thủ tục hành chính quan liêu. Mặt khác, các công ty nhỏ hơn, các nhóm nghiên cứu và các dự án cộng đồng chắc chắn sẽ phải đối mặt với những rào cản đáng kể trong việc chứng minh thông tin đăng nhập và sự trung thực của họ để có được sự chấp thuận theo quy định nhằm phát triển và triển khai các hệ thống AI của riêng họ.

Tuy nhiên, đáng lo ngại là FUD-mill dường như đang hoạt động cho Big AI. Vào ngày 6 tháng 2023 năm XNUMX, hai thành viên của Tiểu ban Thượng viện Hoa Kỳ về Quyền riêng tư, Công nghệ và Luật đã gửi thư [PDF, 187kB] cho Giám đốc điều hành Meta Mark Zuckerberg. Rõ ràng, bức thư ngụ ý rằng 'rò rỉ' trọng số mô hình LLaMA là kết quả có thể thấy trước và có lẽ đã được dự kiến, đồng thời yêu cầu 'thông tin về cách [Meta] đánh giá nguy cơ phát hành LLaMA, các bước đã được thực hiện để ngăn chặn việc lạm dụng LLaMA. mô hình và cách [Meta] cập nhật các chính sách và thực tiễn của [nó] dựa trên tính khả dụng không hạn chế của [mô hình]. Hàm ý của nhiều câu hỏi đặt ra cho Zuckerberg trong lá thư của Thượng nghị sĩ là rõ ràng – nếu các tập đoàn không thể được tin cậy để hành động có trách nhiệm liên quan đến các mô hình AI mạnh mẽ, thì chính phủ sẽ cần phải can thiệp để điều chỉnh hành vi của họ.

Ai sẽ hưởng lợi nhiều nhất từ ​​các quyền IP liên quan đến AI?

Quay trở lại cuộc thảo luận xung quanh IP, cũng có thể nói tương tự về bất kỳ đề xuất nào nhằm 'tăng cường' quyền SHTT. Điều này có thể nhằm mục đích bảo vệ lợi ích của những người sáng tạo và đổi mới, nhưng trên thực tế có thể chỉ trao thêm quyền lực cho các công ty công nghệ lớn, độc quyền, một lần nữa, sẽ tìm cách giành và tích lũy tất cả các quyền mà họ có thể, với giá rẻ nhất có thể. họ có thể và sử dụng chúng để trích tiền thuê từ phần còn lại của chúng tôi mỗi khi chúng tôi muốn sử dụng công nghệ mà họ kiểm soát.

Nếu cần phải có giấy phép để sử dụng tài liệu bản quyền để đào tạo các mô hình AI, thì những người duy nhất có thể đào tạo các mô hình AI là những người có tiền và đầu mối để đàm phán, kiện tụng và/hoặc trả tiền cho giấy phép cho khối lượng lớn nội dung . Lịch sử – và Chủ nghĩa tư bản chokepoint – cho chúng tôi biết rằng những người sáng tạo sẽ không phải là người hưởng lợi chính từ những giấy phép này. Các quyền âm nhạc có giá trị nhất đã được kiểm soát bởi một số hãng thu âm; các quyền sách có giá trị nhất đã được kiểm soát bởi một số nhà xuất bản; nội dung tin tức, truyền hình và phim có giá trị nhất đã được kiểm soát bởi một số công ty truyền thông; cơ sở dữ liệu hình ảnh có cấu trúc tốt và hữu ích nhất được kiểm soát bởi một số công ty hình ảnh chứng khoán; và phần lớn nội dung còn lại trên internet được tạo ra bởi các cá nhân và doanh nghiệp, những người, mặc nhiên nếu không muốn nói là rõ ràng, đã cho thế giới làm theo ý muốn.

Vì vậy, trước hết, việc bảo vệ việc sử dụng các tài liệu bản quyền để đào tạo các mô hình AI chỉ đơn giản là bổ sung thêm một nguồn doanh thu khác cho các công ty đã khai thác các mô hình kinh doanh điểm nghẽn, mà không mang lại lợi ích đáng kể cho những người tạo ra các tài liệu đó. Nói cách khác, nó chỉ cung cấp thêm tiền ăn trưa cho những đứa trẻ bị bắt nạt!

Điều tương tự cũng xảy ra đối với việc công nhận AI là tác giả hoặc nhà phát minh cũng như cấp bản quyền và bằng sáng chế cho các sáng tạo do AI tạo ra. Một quan điểm ngây thơ – chẳng hạn như quan điểm do Ryan Abbott và Dự án nhà phát minh nhân tạo - sẽ có nó rằng điều này sẽ 'khuyến khích tạo ra tài sản trí tuệ bằng cách khuyến khích phát triển máy tính sáng tạo', và nhận ra tiềm năng để máy tính 'vượt qua các nhà phát minh là con người để trở thành nguồn chính của những khám phá mới'. Tuy nhiên, một lần nữa, kinh nghiệm cho chúng ta biết rằng các quyền SHTT có giá trị nhất thường không được nắm giữ bởi những người tạo ra chúng, mà bởi các tập đoàn sử dụng những người tạo ra chúng hoặc những công ty sau đó có được các quyền. Tôi đã thảo luận các ví dụ về các công cụ tổng hợp bản quyền, trong khi trong lĩnh vực bằng sáng chế có các thực thể xác nhận bằng sáng chế (PAE) – hoặc đôi khi, theo cách gọi một cách đáng tiếc là các 'trolls' bằng sáng chế – tích lũy các quyền để trích phí giấy phép từ những người bị cáo buộc vi phạm. Vì vậy, nếu AI có thể phát minh và chúng tôi quyết định cấp quyền bằng sáng chế cho các phát minh do AI tạo ra, liệu chúng tôi có thể tạo ra một mô hình kinh doanh mới cho 'các thực thể tạo bằng sáng chế' không? 

Abbott có thể đúng. Cấp bản quyền và bằng sáng chế cho các sáng tạo do máy tạo ra có thể khuyến khích sự phát triển của các máy sáng tạo. Nhưng đó không phải là điểm quan trọng nhất. Điều quan trọng là ai sở hữu và vận hành những chiếc máy tính sáng tạo đó và ai được hưởng lợi từ những sáng tạo của họ.

Kết luận – Sự cần thiết của một phương pháp tiếp cận tích hợp 

Nói rõ hơn, trong trường hợp có vẻ như tôi đang ủng hộ tình trạng hỗn loạn AI hoàn toàn không có quy định, không có quy định – thì không có gì có thể sai hơn sự thật. Chúng ta hoàn toàn cần phải điều chỉnh AI. Nhưng điều cần được điều tiết nhất là nó được sử dụng như thế nào, trái ngược với cách nó được phát triển, đào tạo và phân phối. Không còn nghi ngờ gì nữa, AI gây ra những rủi ro thực sự đối với xã hội và hạnh phúc của con người, chẳng hạn như mất việc làm, vi phạm quyền riêng tư, deepfakes, sai lệch thuật toán và tự động hóa vũ khí. Những lo ngại này cần được giải quyết bằng cách sử dụng AI có đạo đức và có trách nhiệm, đồng thời chúng tôi chắc chắn sẽ yêu cầu luật pháp và quy định để đảm bảo rằng các tập đoàn, nhà nghiên cứu và cá nhân hoạt động trong các ranh giới đã thống nhất – và nếu không tuân theo thì sẽ có những hậu quả.

Nhưng sẽ là vô ích nếu cố gắng nhét thần đèn trở lại trong lọ bằng cách cố gắng kiểm soát cách thức và người thực hiện AI được phát triển và đào tạo. Điều này chỉ đơn giản là không thể làm việc. Trong khi hầu hết các công ty nhỏ, tổ chức nghiên cứu và cá nhân thiếu tiền và nguồn lực để xây dựng và đào tạo các mô hình AI lớn hơn và tinh vi hơn, thì không thiếu những kẻ xấu – bao gồm các tổ chức tội phạm và các quốc gia bất hảo – có khả năng làm như vậy. Nếu chúng ta hình sự hóa việc đào tạo các mô hình AI, thì chỉ có bọn tội phạm mới đào tạo các mô hình AI. Những người khác sẽ bị loại và sẽ phụ thuộc vào số lượng tương đối nhỏ các công ty công nghệ thống trị được cấp phép và/hoặc có thể đảm bảo quyền truy cập vào số lượng lớn dữ liệu đào tạo cần thiết.

Với việc phát hành mã nguồn mở và các mô hình được đào tạo trước - dù cố ý hay không - chúng ta đang thấy những dấu hiệu đầu tiên của quá trình dân chủ hóa AI tinh vi. Tuy nhiên, hai Thượng nghị sĩ Hoa Kỳ được bầu chọn một cách dân chủ muốn Mark Zuckerberg giải thích những bước Meta đã thực hiện 'để theo dõi việc phân phối, tái sử dụng và sử dụng cuối LLaMA... bao gồm mọi thông báo gỡ xuống DMCA, thư ngừng và hủy bỏ hoặc các nỗ lực tương tự.' Và nếu các luật hiện hành không phù hợp, thì tôi chắc chắn rằng các Thượng nghị sĩ có thể đưa ra những luật mới. Mặc dù tôi không muốn đưa ý tưởng vào đầu họ, nhưng sao lại bắt buộc phải thêm mã theo dõi và tiêu diệt vào tất cả các mô hình phân tán, đồng thời áp dụng mã hóa và quản lý quyền kỹ thuật số (DRM), để thậm chí cố gắng giải mã và đảo ngược kỹ thuật người mẫu sẽ là một hành vi phạm tội tiềm ẩn? Điều đó sẽ ngăn chặn bọn tội phạm, hoặc đặc vụ của kẻ thù? Không. Nhưng nó sẽ dừng lại gần như mọi người khác.

Vì vậy, nếu đây là tương lai mà tất cả chúng ta đều mong muốn, thì bằng mọi cách, chúng ta nên điều chỉnh việc phát triển, đào tạo và phân phối các mô hình AI, đồng thời tinh chỉnh luật sở hữu trí tuệ của mình để khóa quyền đối với đầu vào đào tạo và đối với đầu ra của các mô hình đã triển khai. Trong thời gian gần đây, cách tiếp cận đó đã hoạt động tốt đối với công nghệ lớn, nhưng không tốt lắm đối với cộng đồng nói chung.

Nhưng quay trở lại cuộc tham vấn của Úc, chính phủ nói rằng việc loại trừ IP trong tài liệu thảo luận hiện tại là được, bởi vì nó đang đề cập đến IP trong các sáng kiến ​​khác, chẳng hạn như Hội nghị bàn tròn cấp bộ trưởng về bản quyềnvà Nhóm làm việc AI của Nhóm chính sách sở hữu trí tuệ của IP Australia. Mặc dù điều đó rất tốt, nhưng cả hai nhóm này đều không bao gồm đại diện rộng rãi của các bên liên quan quan tâm đến công nghệ AI. Những người tham gia Hội nghị bàn tròn cấp bộ trưởng bao gồm hầu hết những người chơi lớn thông thường trong ngành bản quyền, chẳng hạn như các đài truyền hình công cộng và tư nhân và các tổ chức tin tức, các cơ quan đại diện của ngành điện ảnh, âm nhạc, nghệ thuật biểu diễn và xuất bản, và Cơ quan bản quyền. Thông tin về Nhóm chính sách sở hữu trí tuệ của IP Australia khó có được hơn. Tất cả những gì tôi biết về nó, thông qua các đồng nghiệp chuyên nghiệp, là nó bao gồm các đại diện từ các hiệp hội chuyên nghiệp IP FICPI ​​ÚcViện luật sư nhãn hiệu và bằng sáng chế Úc (IPTA).

Do đó, bạn sẽ phải thứ lỗi cho sự hoài nghi của tôi rằng các sáng kiến ​​IP này sẽ xem xét đầy đủ đến tác động qua lại giữa luật IP và các hành động quản lý và thông lệ kinh doanh khác. Theo quan điểm của tôi, việc xem xét vai trò của các luật SHTT một cách cô lập là một sai lầm. Quyền sở hữu trí tuệ có liên quan ngay trong quy trình AI, từ việc lựa chọn và tổng hợp dữ liệu đào tạo cho đến kết quả đầu ra được tạo ra từ mô hình được đào tạo cuối cùng. Do đó, chúng cũng nên được tích hợp vào bất kỳ cách tiếp cận nào đối với quy định về AI, để tránh những hậu quả và tương tác không lường trước được giữa luật SHTT và các khía cạnh khác của khung quy định.

Bằng cách thực hiện một cách tiếp cận từng phần, chúng tôi có nguy cơ áp dụng sai quy định về AI. Lần đầu tiên, chúng ta hãy cố gắng không làm điều đó.

tại chỗ_img

Tin tức mới nhất

tại chỗ_img