Logo Zephyrnet

Những xu hướng AI quan trọng nhất năm 2024 – IBM Blog

Ngày:


Những xu hướng AI quan trọng nhất năm 2024 – IBM Blog



Chỉ đạo nhóm của mình thực hiện kế hoạch thành công

Năm 2022 là năm trí tuệ nhân tạo tổng hợp (AI) bùng nổ trong nhận thức cộng đồng và năm 2023 là năm nó bắt đầu bén rễ trong thế giới kinh doanh. Do đó, năm 2024 được coi là một năm bản lề cho tương lai của AI, khi các nhà nghiên cứu và doanh nghiệp tìm cách xác định cách thức bước nhảy vọt mang tính cách mạng này trong công nghệ có thể được tích hợp một cách thiết thực nhất vào cuộc sống hàng ngày của chúng ta.

Sự phát triển của AI thế hệ đã phản ánh sự phát triển của máy tính, mặc dù theo dòng thời gian được tăng tốc đáng kể. Các máy tính lớn, được vận hành tập trung, khổng lồ của một số ít người chơi đã nhường chỗ cho các máy nhỏ hơn, hiệu quả hơn mà các doanh nghiệp và tổ chức nghiên cứu có thể tiếp cận được. Trong những thập kỷ sau đó, những tiến bộ ngày càng tăng đã mang lại những chiếc máy tính gia đình mà những người có sở thích có thể mày mò. Theo thời gian, những chiếc máy tính cá nhân mạnh mẽ với giao diện trực quan không cần mã đã trở nên phổ biến.

AI sáng tạo đã đạt đến giai đoạn “có sở thích”—và cũng giống như máy tính, những tiến bộ hơn nữa nhằm đạt được hiệu suất cao hơn trong các gói nhỏ hơn. Năm 2023 chứng kiến ​​sự bùng nổ ngày càng hiệu quả mô hình nền tảng với các giấy phép mở, bắt đầu bằng việc ra mắt dòng mô hình ngôn ngữ lớn (LLM) LlaMa của Meta và tiếp theo là StableLM, Falcon, Mistral và lạc đà không bướu 2. DeepFloyd và Stable Diffusion đã đạt được mức tương đương với các mô hình độc quyền hàng đầu. Được cải tiến với các kỹ thuật tinh chỉnh và bộ dữ liệu do cộng đồng nguồn mở phát triển, nhiều mô hình mở giờ đây có thể hoạt động tốt hơn tất cả các mô hình nguồn đóng mạnh mẽ nhất trên hầu hết các điểm chuẩn, mặc dù số lượng tham số nhỏ hơn nhiều.

Khi tốc độ tiến bộ ngày càng tăng, khả năng ngày càng mở rộng của các mô hình tiên tiến nhất sẽ thu hút được sự chú ý của giới truyền thông nhiều nhất. Nhưng những phát triển có tác động mạnh nhất có thể là những phát triển tập trung vào quản trị, phần mềm trung gian, kỹ thuật đào tạo và quy trình dữ liệu giúp tạo ra AI hiệu quả hơn đáng tin cậy, bền vững và có thể truy cập được cho cả doanh nghiệp và người dùng cuối.

Dưới đây là một số xu hướng AI quan trọng hiện nay cần chú ý trong năm tới.

  • Kiểm tra thực tế: kỳ vọng thực tế hơn
  • AI đa phương thức
  • Các mô hình ngôn ngữ nhỏ (er) và các tiến bộ nguồn mở
  • Thiếu GPU và chi phí đám mây
  • Tối ưu hóa mô hình ngày càng dễ tiếp cận hơn
  • Các mô hình cục bộ và đường truyền dữ liệu được tùy chỉnh
  • Tác nhân ảo mạnh hơn
  • Các mối quan ngại về quy định, bản quyền và đạo đức AI
  • Shadow AI (và các chính sách AI của công ty)

Kiểm tra thực tế: kỳ vọng thực tế hơn

Khi AI lần đầu tiên được phổ biến rộng rãi, kiến ​​thức của một nhà lãnh đạo doanh nghiệp điển hình chủ yếu đến từ các tài liệu tiếp thị và tin tức hấp dẫn. Trải nghiệm hữu hình (nếu có) bị giới hạn ở việc loay hoay với ChatGPT và DALL-E. Giờ đây, bụi đã lắng xuống, cộng đồng doanh nghiệp giờ đây đã hiểu rõ hơn về các giải pháp hỗ trợ AI.

Chu kỳ cường điệu của Gartner đặt AI sáng tạo ngay tại “Đỉnh cao của những kỳ vọng tăng cao”, trên đỉnh của một đường trượt vào “Máng vỡ mộng”[I]—nói cách khác, sắp bước vào một giai đoạn chuyển tiếp (tương đối) không mấy suôn sẻ — trong khi báo cáo “Trạng thái AI được tạo ra trong doanh nghiệp” của Deloitte từ quý 1 năm 2024 chỉ ra rằng nhiều nhà lãnh đạo “mong đợi những tác động chuyển đổi đáng kể trong ngắn hạn”.[Ii] Thực tế có thể sẽ nằm ở giữa: AI mang lại những cơ hội và giải pháp độc đáo, nhưng nó sẽ không phải là tất cả đối với tất cả mọi người.

Kết quả thực tế như thế nào so với sự cường điệu một phần là vấn đề quan điểm. Các công cụ độc lập như ChatGPT thường chiếm vị trí trung tâm trong trí tưởng tượng phổ biến, nhưng việc tích hợp trơn tru vào các dịch vụ đã có sẵn thường mang lại sức mạnh bền bỉ hơn. Trước chu kỳ cường điệu hóa hiện tại, các công cụ học máy tổng quát như tính năng “Soạn thư thông minh” được Google triển khai vào năm 2018 không được báo trước là một sự thay đổi mô hình, mặc dù chúng là tiền thân của các dịch vụ tạo văn bản ngày nay. Tương tự, nhiều công cụ AI có tác động cao đang được triển khai dưới dạng các yếu tố tích hợp của môi trường doanh nghiệp nhằm nâng cao và bổ sung, thay vì cách mạng hóa hoặc thay thế các công cụ hiện có: ví dụ: tính năng “Copilot” trong Microsoft Office, tính năng “Generative Fill” trong Adobe Photoshop hoặc tác nhân ảo trong các ứng dụng cộng tác và năng suất.

Trường hợp AI tạo động lực lần đầu tiên tạo động lực trong quy trình làm việc hàng ngày sẽ có nhiều ảnh hưởng đến tương lai của các công cụ AI hơn là mặt tích cực giả định của bất kỳ khả năng AI cụ thể nào. Theo một báo cáo gần đây IBM khảo sát hơn 1,000 nhân viên tại các công ty quy mô doanh nghiệp, ba yếu tố hàng đầu thúc đẩy việc áp dụng AI là những tiến bộ trong các công cụ AI giúp chúng dễ tiếp cận hơn, nhu cầu giảm chi phí và tự động hóa các quy trình chính cũng như số lượng AI được nhúng vào các ứng dụng kinh doanh tiêu chuẩn sẵn có ngày càng tăng.

Đa phương thức AI (và video)

Nói như vậy, tham vọng về AI thế hệ hiện đại đang ngày càng tăng. Làn sóng tiến bộ tiếp theo sẽ không chỉ tập trung vào việc nâng cao hiệu suất trong một lĩnh vực cụ thể mà còn vào đa phương thức mô hình có thể lấy nhiều loại dữ liệu làm đầu vào. Mặc dù các mô hình hoạt động trên các phương thức dữ liệu khác nhau không phải là một hiện tượng hoàn toàn mới—các mô hình chuyển văn bản thành hình ảnh như CLIP và các mô hình chuyển giọng nói thành văn bản như Wave2Vec đã xuất hiện từ nhiều năm nay—chúng thường chỉ hoạt động theo một hướng và được đào tạo để hoàn thành một nhiệm vụ cụ thể.

Thế hệ mô hình liên ngành sắp tới, bao gồm các mô hình độc quyền như GPT-4V của OpenAI hoặc Gemini của Google, cũng như các mô hình nguồn mở như LLaVa, Adept hoặc Qwen-VL, có thể di chuyển tự do giữa các tác vụ xử lý ngôn ngữ tự nhiên (NLP) và thị giác máy tính. Các mô hình mới cũng đang mang lại video vào cuộc: vào cuối tháng 1, Google đã công bố Lumiere, một mô hình phổ biến văn bản sang video cũng có thể thực hiện các tác vụ chuyển hình ảnh sang video hoặc sử dụng hình ảnh để tham khảo về phong cách.

Lợi ích trước mắt nhất của AI đa phương thức là các ứng dụng AI và trợ lý ảo trực quan, linh hoạt hơn. Ví dụ: người dùng có thể hỏi về một hình ảnh và nhận được câu trả lời bằng ngôn ngữ tự nhiên hoặc yêu cầu thành tiếng để được hướng dẫn sửa chữa thứ gì đó và nhận hỗ trợ trực quan cùng với hướng dẫn bằng văn bản từng bước.

Ở cấp độ cao hơn, AI đa phương thức cho phép một mô hình xử lý dữ liệu đầu vào đa dạng hơn, làm phong phú và mở rộng thông tin có sẵn cho đào tạo và suy luận. Đặc biệt, video mang lại tiềm năng lớn cho việc học tập toàn diện. Peter Norvig, Thành viên Giáo dục Xuất sắc tại Viện Trí tuệ Nhân tạo Lấy Con người làm Trung tâm (HAI) Stanford cho biết: “Có những chiếc camera hoạt động 24/7 và chúng ghi lại những gì xảy ra đúng như nó diễn ra mà không có bất kỳ sự lọc nào, không có bất kỳ sự cố ý nào”. .[Iii] “Các mô hình AI trước đây chưa từng có loại dữ liệu đó. Những người mẫu đó sẽ hiểu rõ hơn về mọi thứ.”

Các mô hình ngôn ngữ nhỏ (er) và các tiến bộ nguồn mở

Trong các mô hình dành riêng cho miền—đặc biệt là LLM—chúng tôi có thể đã đạt đến điểm giảm dần lợi nhuận từ số lượng tham số lớn hơn. Sam Altman, Giám đốc điều hành của OpenAI (người có mô hình GPT-4 được đồn đại là có khoảng 1.76 tỷ tham số), đã được đề xuất nhiều như vậy tại sự kiện Tưởng tượng trong hành động của MIT vào tháng 4 năm ngoái: “Tôi nghĩ chúng ta đang ở cuối kỷ nguyên mà những mô hình khổng lồ này sẽ trở thành những mô hình khổng lồ và chúng ta sẽ làm cho chúng tốt hơn theo những cách khác,” ông dự đoán . “Tôi nghĩ đã có quá nhiều sự tập trung vào số lượng thông số.”

Các mô hình khổng lồ đã khởi đầu thời kỳ hoàng kim AI đang diễn ra này, nhưng chúng không phải là không có nhược điểm. Chỉ những công ty lớn nhất mới có đủ vốn và không gian máy chủ để đào tạo và duy trì các mô hình tiêu tốn nhiều năng lượng với hàng trăm tỷ thông số. Theo một ước tính từ Đại học Washington, việc đào tạo một mô hình cỡ GPT-3 yêu cầu hàng năm tiêu thụ điện của trên 1,000 hộ dân; một ngày tiêu chuẩn của các truy vấn ChatGPT ngang bằng với mức tiêu thụ năng lượng hàng ngày của 33,000 hộ gia đình ở Hoa Kỳ.[Iv]

Trong khi đó, các mô hình nhỏ hơn lại ít tốn tài nguyên hơn. Một người có ảnh hưởng bài báo tháng 2022 năm XNUMX từ Deepmind đã chứng minh rằng việc đào tạo các mô hình nhỏ hơn trên nhiều dữ liệu hơn sẽ mang lại hiệu suất tốt hơn so với việc đào tạo các mô hình lớn hơn trên ít dữ liệu hơn. Do đó, phần lớn sự đổi mới đang diễn ra trong LLM đã tập trung vào việc mang lại sản lượng lớn hơn từ ít tham số hơn. Như đã được chứng minh bằng sự tiến bộ gần đây của các mô hình trong phạm vi tham số 3–70 tỷ, đặc biệt là các mô hình được xây dựng dựa trên các mô hình nền tảng LLaMa, Llama 2 và Mistral vào năm 2023, các mô hình có thể được giảm kích thước mà không phải hy sinh nhiều về hiệu suất.

Sức mạnh của các mô hình mở sẽ tiếp tục phát triển. Vào tháng 2023 năm XNUMX, Mistral phát hành “Mixtral”, một sự kết hợp của các chuyên gia (MoE) mô hình tích hợp 8 mạng nơ-ron, mỗi mạng có 7 tỷ tham số. Mistral tuyên bố rằng Mixtral không chỉ vượt trội hơn biến thể tham số 70B của Llama 2 trên hầu hết các điểm chuẩn với tốc độ suy luận nhanh hơn 6 lần mà thậm chí còn ngang bằng hoặc vượt trội hơn OpenAI xa GPT-3.5 lớn hơn trên hầu hết các điểm chuẩn tiêu chuẩn. Ngay sau đó, Meta đã thông báo vào tháng 3 rằng họ đã bắt đầu đào tạo các mô hình Llama 3 và xác nhận rằng chúng sẽ có nguồn mở. Mặc dù các chi tiết (chẳng hạn như kích thước mô hình) chưa được xác nhận, nhưng thật hợp lý khi kỳ vọng Llama XNUMX sẽ tuân theo khuôn khổ đã được thiết lập ở hai thế hệ trước.

Những tiến bộ này trong các mô hình nhỏ hơn có ba lợi ích quan trọng:

  • Chúng giúp dân chủ hóa AI: các mô hình nhỏ hơn có thể chạy với chi phí thấp hơn trên phần cứng dễ tiếp cận hơn, trao quyền cho nhiều người nghiệp dư và tổ chức hơn để nghiên cứu, đào tạo và cải tiến các mô hình hiện có.
  • Chúng có thể được chạy cục bộ trên các thiết bị nhỏ hơn: điều này cho phép AI phức tạp hơn trong các tình huống như điện toán ranh giới và Internet vạn vật (IoT). Hơn nữa, việc chạy các mô hình cục bộ—như trên điện thoại thông minh của người dùng—giúp loại bỏ nhiều mối lo ngại về quyền riêng tư và an ninh mạng phát sinh từ việc tương tác với dữ liệu cá nhân hoặc dữ liệu độc quyền nhạy cảm.
  • Chúng làm cho AI dễ giải thích hơn: mô hình càng lớn thì càng khó xác định cách thức và vị trí đưa ra các quyết định quan trọng. AI có thể giải thích là điều cần thiết để hiểu, cải thiện và tin tưởng vào kết quả đầu ra của hệ thống AI.

Thiếu GPU và chi phí đám mây

Xu hướng hướng tới các mô hình nhỏ hơn sẽ được thúc đẩy bởi sự cần thiết cũng như sức mạnh kinh doanh, khi chi phí điện toán đám mây tăng lên khi số lượng phần cứng sẵn có giảm đi.

James Landay, Phó Giám đốc kiêm Giám đốc Khoa Nghiên cứu, Stanford HAI, cho biết: “Các công ty lớn (và nhiều công ty khác) đều đang cố gắng đưa khả năng AI vào nội bộ và có một chút nỗ lực về GPU”. “Điều này sẽ tạo ra áp lực rất lớn không chỉ đối với việc tăng cường sản xuất GPU mà còn đối với các nhà đổi mới trong việc đưa ra các giải pháp phần cứng rẻ hơn, dễ sản xuất và sử dụng hơn”.1

Như một báo cáo cuối năm 2023 của O'Reilly giải thích, các nhà cung cấp đám mây hiện phải chịu phần lớn gánh nặng về điện toán: tương đối ít người áp dụng AI duy trì cơ sở hạ tầng của riêng họ và tình trạng thiếu phần cứng sẽ chỉ làm tăng thêm các rào cản và chi phí thiết lập máy chủ tại chỗ. Về lâu dài, điều này có thể gây áp lực lên chi phí đám mây khi các nhà cung cấp cập nhật và tối ưu hóa cơ sở hạ tầng của chính họ để đáp ứng hiệu quả nhu cầu từ AI tạo ra.[V]

Đối với các doanh nghiệp, việc điều hướng bối cảnh không chắc chắn này đòi hỏi sự linh hoạt, xét về cả hai mô hình – dựa vào các mô hình nhỏ hơn, hiệu quả hơn khi cần thiết hoặc các mô hình lớn hơn, hiệu suất cao hơn khi thực tế – và môi trường triển khai. “Chúng tôi không muốn hạn chế nơi mọi người triển khai [một mô hình],” Giám đốc điều hành IBM Arvind Krishna cho biết trong một báo cáo. Cuộc phỏng vấn tháng 2023 năm XNUMX với CNBC, liên quan đến IBM watsonx nền tảng. “Vì vậy [nếu] họ muốn triển khai nó trên một đám mây công cộng lớn, chúng tôi sẽ thực hiện ở đó. Nếu họ muốn triển khai nó ở IBM, chúng tôi sẽ triển khai ở IBM. Nếu họ muốn tự mình làm việc đó và có đủ cơ sở hạ tầng, chúng tôi sẽ thực hiện ở đó.”

Tối ưu hóa mô hình ngày càng dễ tiếp cận hơn

Xu hướng tối đa hóa hiệu suất của các mô hình nhỏ gọn hơn được phục vụ tốt bởi kết quả gần đây của cộng đồng nguồn mở. 

Nhiều tiến bộ quan trọng đã (và sẽ tiếp tục) được thúc đẩy không chỉ bởi các mô hình nền tảng mới mà còn bởi các kỹ thuật và tài nguyên mới (như bộ dữ liệu nguồn mở) để đào tạo, điều chỉnh, tinh chỉnh hoặc căn chỉnh các mô hình được đào tạo trước. Các kỹ thuật bất khả tri về mô hình đáng chú ý đã được áp dụng vào năm 2023 bao gồm:

  • Thích ứng Thứ hạng Thấp (LoRA): Thay vì trực tiếp tinh chỉnh hàng tỷ tham số mô hình, LoRA yêu cầu đóng băng các trọng số mô hình được huấn luyện trước và đưa vào các lớp có thể huấn luyện được—biểu thị ma trận các thay đổi đối với trọng số mô hình thành 2 nhỏ hơn (thứ hạng thấp hơn) ma trận—trong mỗi khối máy biến áp. Điều này làm giảm đáng kể số lượng tham số cần cập nhật, từ đó tăng tốc đáng kể việc tinh chỉnh và giảm bộ nhớ cần thiết để lưu trữ các bản cập nhật mô hình.
  • Lượng tử hóa: Giống như việc giảm tốc độ bit của âm thanh hoặc video để giảm kích thước tệp và độ trễ, lượng tử hóa làm giảm độ chính xác được sử dụng để biểu thị các điểm dữ liệu mô hình—ví dụ: từ dấu phẩy động 16 bit xuống số nguyên 8 bit—để giảm mức sử dụng bộ nhớ và tăng tốc độ suy luận. QLoRA kỹ thuật kết hợp lượng tử hóa với LoRA.
  • Tối ưu hóa tùy chọn trực tiếp (DPO): Các mô hình trò chuyện thường sử dụng học tăng cường từ phản hồi của con người (RLHF) để căn chỉnh kết quả đầu ra của mô hình theo sở thích của con người. Mặc dù mạnh mẽ nhưng RLHF rất phức tạp và không ổn định. DPO hứa hẹn những lợi ích tương tự trong khi nhẹ về mặt tính toán và đơn giản hơn đáng kể.

Bên cạnh những tiến bộ song song trong các mô hình nguồn mở trong không gian tham số 3–70 tỷ, những kỹ thuật đang phát triển này có thể thay đổi động lực của bối cảnh AI bằng cách cung cấp cho những người chơi nhỏ hơn, như những người mới khởi nghiệp và những người nghiệp dư, những khả năng AI phức tạp mà trước đây nằm ngoài tầm với.

Các mô hình cục bộ và đường truyền dữ liệu được tùy chỉnh

Do đó, các doanh nghiệp vào năm 2024 có thể theo đuổi sự khác biệt hóa thông qua việc phát triển mô hình riêng biệt, thay vì xây dựng các gói bao quanh các dịch vụ được đóng gói lại từ “AI lớn”. Với khung dữ liệu và phát triển phù hợp, các mô hình và công cụ AI nguồn mở hiện có có thể được điều chỉnh cho phù hợp với hầu hết mọi tình huống trong thế giới thực, từ việc sử dụng hỗ trợ khách hàng đến quản lý chuỗi cung ứng đến phân tích tài liệu phức tạp.

Các mô hình nguồn mở mang lại cho các tổ chức cơ hội phát triển các mô hình AI tùy chỉnh mạnh mẽ—được đào tạo dựa trên dữ liệu độc quyền của họ và được tinh chỉnh cho các nhu cầu cụ thể của họ—một cách nhanh chóng mà không cần đầu tư cơ sở hạ tầng quá tốn kém. Điều này đặc biệt phù hợp trong các lĩnh vực như pháp lý, y tế hoặc tài chính, những lĩnh vực mà các mô hình nền tảng có thể chưa học được các từ vựng và khái niệm chuyên môn cao trong quá trình đào tạo trước.

Pháp lý, tài chính và chăm sóc sức khỏe cũng là những ví dụ điển hình về các ngành có thể hưởng lợi từ các mô hình đủ nhỏ để chạy cục bộ trên phần cứng khiêm tốn. Tiếp tục đào tạo, suy luận và nghiên cứu AI thế hệ tăng cường truy xuất (RAG) local tránh nguy cơ dữ liệu độc quyền hoặc thông tin cá nhân nhạy cảm được sử dụng để đào tạo các mô hình nguồn đóng hoặc chuyển qua tay các bên thứ ba. Và việc sử dụng RAG để truy cập thông tin liên quan thay vì lưu trữ tất cả kiến ​​thức trực tiếp trong chính LLM sẽ giúp giảm kích thước mô hình, tăng thêm tốc độ và giảm chi phí.

Khi năm 2024 tiếp tục san bằng sân chơi mô hình, lợi thế cạnh tranh sẽ ngày càng được thúc đẩy bởi các đường dẫn dữ liệu độc quyền cho phép tinh chỉnh tốt nhất trong ngành.

Tác nhân ảo mạnh hơn

Với các công cụ phức tạp, hiệu quả hơn và khả năng sử dụng phản hồi thị trường trong một năm, các doanh nghiệp có khả năng mở rộng các trường hợp sử dụng cho đại lý ảo ngoài việc đơn giản chatbot trải nghiệm khách hàng.

Khi các hệ thống AI tăng tốc và kết hợp các luồng và định dạng thông tin mới, chúng sẽ mở rộng khả năng không chỉ về giao tiếp và hướng dẫn mà còn cả tự động hóa nhiệm vụ. “2023 là năm có thể trò chuyện với AI. Nhiều công ty đã tung ra thứ gì đó, nhưng sự tương tác luôn là bạn nhập thứ gì đó vào và nó gõ lại thứ gì đó,” Norvig của Stanford cho biết. “Vào năm 2024, chúng ta sẽ thấy khả năng để các đại lý hoàn thành công việc cho bạn. Đặt chỗ, lên kế hoạch cho chuyến đi, kết nối với các dịch vụ khác.”

Đặc biệt, AI đa phương thức làm tăng đáng kể cơ hội tương tác liền mạch với các tác nhân ảo. Ví dụ: thay vì chỉ yêu cầu bot cung cấp công thức nấu ăn, người dùng có thể hướng camera vào tủ lạnh đang mở và yêu cầu các công thức nấu ăn có thể được chế biến bằng các nguyên liệu có sẵn. Be My Eyes, một ứng dụng di động kết nối những người mù và thị lực kém với các tình nguyện viên để giúp thực hiện các nhiệm vụ nhanh chóng, đang thử nghiệm các công cụ AI giúp người dùng tương tác trực tiếp với môi trường xung quanh thông qua AI đa phương thức thay vì chờ đợi một tình nguyện viên là con người.

Khám phá IBM watsonx™ Assistant: AI đàm thoại dẫn đầu thị trường với khả năng tích hợp liền mạch cho các công cụ hỗ trợ doanh nghiệp của bạn →

Các mối quan ngại về quy định, bản quyền và đạo đức AI

Khả năng đa phương thức được nâng cao và rào cản gia nhập thấp hơn cũng mở ra những cánh cửa mới cho sự lạm dụng: deepfake, các vấn đề về quyền riêng tư, duy trì sự thiên vị và thậm chí trốn tránh các biện pháp bảo vệ CAPTCHA có thể ngày càng trở nên dễ dàng đối với những kẻ xấu. Vào tháng 2024 năm 2023, một làn sóng deepfake rõ ràng về người nổi tiếng đã tấn công mạng xã hội; nghiên cứu từ tháng 8 năm 2022 chỉ ra rằng số lượng video deepfake bằng giọng nói được đăng trực tuyến nhiều gấp XNUMX lần so với cùng kỳ năm XNUMX.[Vi]

Sự mơ hồ trong môi trường pháp lý có thể làm chậm quá trình áp dụng hoặc ít nhất là triển khai tích cực hơn trong ngắn hạn và trung hạn. Luôn có rủi ro cố hữu đối với bất kỳ khoản đầu tư lớn, không thể đảo ngược nào vào một công nghệ hoặc hoạt động mới nổi có thể yêu cầu trang bị lại đáng kể—hoặc thậm chí trở thành bất hợp pháp—theo luật mới hoặc thay đổi những cơn gió ngược chính trị trong những năm tới.

Vào tháng 2023 năm XNUMX, Liên minh Châu Âu (EU) đã đạt được thỏa thuận tạm thời về Đạo luật trí tuệ nhân tạo. Trong số các biện pháp khác, nó cấm việc quét hình ảnh một cách bừa bãi để tạo cơ sở dữ liệu nhận dạng khuôn mặt, hệ thống phân loại sinh trắc học có khả năng gây sai lệch phân biệt đối xử, hệ thống “chấm điểm xã hội” và sử dụng AI để thao túng xã hội hoặc kinh tế. Nó cũng tìm cách xác định một danh mục các hệ thống AI “có nguy cơ cao”, có khả năng đe dọa đến sự an toàn, các quyền cơ bản hoặc quy định của pháp luật, sẽ phải chịu sự giám sát bổ sung. Tương tự như vậy, nó đặt ra các yêu cầu về tính minh bạch cho cái mà nó gọi là hệ thống “AI có mục đích chung (GPAI)” — các mô hình nền tảng — bao gồm tài liệu kỹ thuật và thử nghiệm đối thủ có hệ thống.

Nhưng trong khi một số người chơi chủ chốt, như Mistral, cư trú tại EU, thì phần lớn sự phát triển đột phá của AI đang diễn ra ở Mỹ, nơi luật pháp thực chất về AI trong khu vực tư nhân sẽ yêu cầu Quốc hội hành động — điều này có thể khó xảy ra trong năm bầu cử. Vào ngày 30 tháng XNUMX, chính quyền Biden đã ban hành một lệnh điều hành toàn diện nêu chi tiết 150 yêu cầu về việc sử dụng công nghệ AI của các cơ quan liên bang; tháng trước, chính quyền đã bảo đảm cam kết tự nguyện từ các nhà phát triển AI nổi tiếng tuân thủ các biện pháp bảo vệ nhất định để có được sự tin cậy và bảo mật. Đáng chú ý, cả California và Colorado đều đang tích cực theo đuổi luật riêng của họ về quyền riêng tư dữ liệu của cá nhân liên quan đến trí tuệ nhân tạo.

Trung Quốc đã chủ động hơn trong việc hạn chế chính thức về AI, cấm phân biệt giá bằng các thuật toán đề xuất trên mạng xã hội và bắt buộc phải dán nhãn rõ ràng cho nội dung do AI tạo ra. Các quy định tương lai về AI tạo ra nhằm yêu cầu dữ liệu đào tạo được sử dụng để đào tạo LLM và nội dung do mô hình tạo ra sau đó phải “đúng và chính xác”, điều mà các chuyên gia đã thực hiện để chỉ ra các biện pháp kiểm duyệt đầu ra LLM.

Trong khi đó, vai trò của tài liệu có bản quyền trong việc đào tạo các mô hình AI được sử dụng để tạo nội dung, từ mô hình ngôn ngữ đến trình tạo hình ảnh và mô hình video, vẫn là một vấn đề gây tranh cãi gay gắt. Kết quả của giải đấu cao cấp vụ kiện được đệ trình bởi Bán Chạy Nhất của Báo New York Times chống lại OpenAI có thể ảnh hưởng đáng kể đến quỹ đạo của pháp luật AI. Các công cụ đối nghịch, như GlazeCây mồng tơi—cả hai đều được phát triển tại Đại học Chicago — đã nảy sinh trong một cuộc chạy đua vũ trang giữa những người sáng tạo và nhà phát triển mô hình.

 Tìm hiểu cách IBM® watsonx.governance™ tăng tốc quy trình làm việc AI có trách nhiệm, minh bạch và dễ giải thích →

Shadow AI (và các chính sách AI của công ty)

Đối với các doanh nghiệp, tiềm năng leo thang về các hậu quả pháp lý, quy định, kinh tế hoặc danh tiếng càng trở nên phức tạp bởi mức độ phổ biến và dễ tiếp cận của các công cụ AI tổng hợp. Các tổ chức không chỉ phải có chính sách doanh nghiệp cẩn thận, mạch lạc và rõ ràng về AI tạo sinh mà còn phải cảnh giác với bóng tối AI: việc nhân viên sử dụng AI cho mục đích cá nhân “không chính thức” tại nơi làm việc.

Còn được gọi là “ CNTT bóng tối” hoặc “BYOAI”, AI bóng tối phát sinh khi những nhân viên thiếu kiên nhẫn tìm kiếm giải pháp nhanh chóng (hoặc đơn giản là muốn khám phá công nghệ mới nhanh hơn mức chính sách thận trọng của công ty cho phép) triển khai AI sáng tạo tại nơi làm việc mà không cần thông qua CNTT để phê duyệt hoặc giám sát . Nhiều dịch vụ hướng tới người tiêu dùng, một số dịch vụ miễn phí, cho phép ngay cả những cá nhân không có chuyên môn kỹ thuật cũng có thể ứng biến việc sử dụng các công cụ AI tổng hợp. Trong một nghiên cứu của Ernst & Young, 90% số người được hỏi cho biết họ sử dụng AI trong công việc.[Vii]

Tinh thần dám nghĩ dám làm đó có thể rất tuyệt vời trong môi trường chân không—nhưng những nhân viên nhiệt tình có thể thiếu thông tin hoặc quan điểm liên quan về bảo mật, quyền riêng tư hoặc tuân thủ. Điều này có thể khiến doanh nghiệp gặp rất nhiều rủi ro. Ví dụ: một nhân viên có thể vô tình cung cấp bí mật thương mại cho một mô hình AI công khai liên tục đào tạo dựa trên thông tin đầu vào của người dùng hoặc sử dụng tài liệu được bảo vệ bản quyền để đào tạo một mô hình độc quyền nhằm tạo nội dung và khiến công ty của họ phải chịu hành động pháp lý.

Giống như nhiều sự phát triển đang diễn ra, điều này nhấn mạnh mức độ nguy hiểm của AI tạo ra tăng lên gần như tuyến tính với khả năng của nó. Với sức mạnh lớn đến trách nhiệm lớn.

Tiến về phía trước

Khi chúng ta bước qua một năm quan trọng trong lĩnh vực trí tuệ nhân tạo, việc hiểu và thích ứng với các xu hướng mới nổi là điều cần thiết để tối đa hóa tiềm năng, giảm thiểu rủi ro và nhân rộng việc áp dụng AI sáng tạo một cách có trách nhiệm.

Đưa AI tổng hợp vào hoạt động với watsonx™ →

Tìm hiểu cách IBM có thể hỗ trợ bạn để đón đầu các xu hướng AI →


[I] “Gartner đặt AI sáng tạo lên đỉnh cao của những kỳ vọng tăng cao trong Chu kỳ cường điệu năm 2023 dành cho các công nghệ mới nổi,” Gartner, ngày 16 tháng 2023 năm XNUMX

[Ii] ”Trạng thái AI sáng tạo của Deloitte trong báo cáo Quý 1 của Enteprrise,” Deloitte, tháng 2024 năm XNUMX

[Iii] ”Điều gì sẽ xảy ra ở AI vào năm 2024,” Đại học Stanford, ngày 8 tháng 2023 năm XNUMX

[Iv] ”Hỏi đáp: Nhà nghiên cứu của UW thảo luận về việc ChatGPT sử dụng bao nhiêu năng lượng,” Đại học Washington, ngày 27 tháng 2023 năm XNUMX

[V] “AI sáng tạo trong doanh nghiệp,” O'Reilly, ngày 28 tháng 2023 năm XNUMX

[Vi] ”Làm giả sâu sắc: Cuộc bầu cử năm 2024 của Mỹ trùng hợp với sự bùng nổ của AI,” Reuters, ngày 30 tháng 2023 năm XNUMX

[Vii] “Làm thế nào các tổ chức có thể ngăn chặn việc sử dụng AI tăng vọt do gây lo lắng,” Ernst & Young, tháng 2023 năm XNUMX

Bài viết này hữu ích không?

Không


Xem thêm từ Trí tuệ nhân tạo




Tạo ra trải nghiệm đặc biệt cho nhân viên

4 phút đọcKhi ranh giới giữa cuộc sống cá nhân và nghề nghiệp của nhân viên trở nên mờ nhạt hơn bao giờ hết, nhân viên mong đợi một nơi làm việc linh hoạt và đồng cảm hơn, coi trọng toàn bộ bản thân họ. Sự thay đổi trong kỳ vọng của nhân viên đang diễn ra trong một môi trường đầy thách thức với những tiến bộ công nghệ nhanh chóng, khoảng cách kỹ năng ngày càng mở rộng và các vấn đề kinh tế xã hội khó lường. Và trên hết, bản chất của nhân sự là chống lại sự tối ưu hóa, vì trải nghiệm của nhân viên khó định lượng và tổ chức khó thay đổi. Bất chấp những thách thức này,…




6 cách AI tổng hợp có thể tối ưu hóa việc quản lý tài sản

3 phút đọcMọi người quản lý tài sản, bất kể quy mô của tổ chức, đều phải đối mặt với các nhiệm vụ tương tự: hợp lý hóa việc lập kế hoạch bảo trì, nâng cao độ tin cậy của tài sản hoặc thiết bị và tối ưu hóa quy trình công việc để cải thiện chất lượng và năng suất. Trong một nghiên cứu gần đây của Viện Giá trị Kinh doanh IBM về các giám đốc chuỗi cung ứng, gần một nửa số người được hỏi cho biết họ đã áp dụng các công nghệ mới để ứng phó với các thách thức. Thậm chí còn có nhiều sự trợ giúp hơn nữa nhờ sức mạnh của các mô hình nền tảng trí tuệ nhân tạo (AI) tổng hợp, kết hợp với AI truyền thống, để…




Cách Học viện Ghi âm sử dụng IBM watsonx để nâng cao trải nghiệm của người hâm mộ tại GRAMMYs®

3 phút đọcThông qua GRAMMYs®, Học viện Ghi âm® tìm cách công nhận sự xuất sắc trong nghệ thuật và khoa học ghi âm, đồng thời đảm bảo rằng âm nhạc vẫn là một phần không thể xóa nhòa trong văn hóa của chúng ta. Khi các ngôi sao thu âm hàng đầu thế giới bước qua thảm đỏ tại Lễ trao giải GRAMMY thường niên lần thứ 66, IBM sẽ có mặt ở đó một lần nữa. Năm nay, thách thức kinh doanh mà GRAMMY phải đối mặt cũng tương tự như những thách thức của các sự kiện giải trí và thể thao văn hóa mang tính biểu tượng khác: trong bối cảnh truyền thông bị phân mảnh cao độ ngày nay, việc tạo ra tác động văn hóa có nghĩa là thúc đẩy nội dung hấp dẫn…




Trợ lý AI dành cho mọi người: watsonx Orchestrate kết hợp AI tổng hợp và tự động hóa để tăng năng suất

3 phút đọcĐiều gì sẽ xảy ra nếu nhân viên có khả năng dễ dàng ủy thác các nhiệm vụ tốn thời gian, truy cập thông tin một cách liền mạch thông qua các yêu cầu đơn giản và giải quyết các dự án phức tạp trong một ứng dụng đơn giản, hợp lý? Điều gì sẽ xảy ra nếu khách hàng có quyền truy cập vào một nhân viên ảo thông minh, thân thiện để đưa ra câu trả lời và cho phép trải nghiệm tự phục vụ suốt ngày đêm? Cuộc cách mạng công nghệ này giờ đây đã có thể thực hiện được nhờ vào khả năng đổi mới của tự động hóa dựa trên AI. Với những tiến bộ ngày nay trong công nghệ Trợ lý AI, các công ty có thể đạt được kết quả kinh doanh với tốc độ chưa từng có, biến…

Bản tin IBM

Nhận các bản tin và cập nhật chủ đề của chúng tôi nhằm cung cấp thông tin chi tiết và lãnh đạo tư tưởng mới nhất về các xu hướng mới nổi.

Theo dõi ngay

Các bản tin khác

tại chỗ_img

Tin tức mới nhất

tại chỗ_img