Logo Zephyrnet

Chúng ta cần quy định để cứu nhân loại khỏi AI… và để cứu cổ phiếu AI – CryptoInfoNet

Ngày:

Là trí tuệ nhân tạo (AI) thúc đẩy giai đoạn trung tâm công nghệ, các nhà đầu tư tự nhiên ngửi thấy cơ hội trong không khí. Họ cũng ngửi thấy mùi của các biểu mẫu mới được in và băng đỏ của cơ quan quản lý đang chờ xử lý và cản trở cỗ máy đổi mới AI đang gầm rú. Nhưng đối với những người lo lắng rằng Chú Sam có thể đè bẹp ngành này thông qua các quy định và hạn chế mới, tôi cho rằng ở đây điều hoàn toàn ngược lại mới đúng: Các quy định có thể cứu ngành này khỏi chính nó. Và bằng cách mở rộng điều đó, sẽ có nhiều quy định hơn cho ngành để bảo vệ chứ không gây hại cho các nhà đầu tư. 

Trong hầu hết các ngành công nghiệp mới, từ “quy định” là điều cấm kỵ. Hiện nay, ngành công nghiệp AI không hẳn là mới. Khái niệm hiện đại đã có từ những năm 1950, và cả đầu tư tư nhân và công cộng vào lĩnh vực này đã tăng giảm trong khoảng 70 năm qua. Những năm 1980 và đầu những năm 1990 chứng kiến ​​sự chu kỳ bùng nổ và phá sản trong đầu tư trí tuệ nhân tạo. Các khoản đầu tư của chính phủ Nhật Bản vào những năm 80 đã khởi đầu cho sự bùng nổ AI thương mại lớn đầu tiên. Tuy nhiên, đến năm 1993, “hơn 300 công ty đã đóng cửa” khi bong bóng nổ tung. Tuy nhiên, những tiến bộ hiện đại về sức mạnh tính toán và các mô hình ngôn ngữ lớn (LLM) đã mang lại cho ngành này một sức sống mới và tiềm năng của nó không chỉ thu hút các nhà đầu tư mà còn cả các cơ quan quản lý.

Các quy định về AI: Sự hỗn loạn về lợi ích và rủi ro

Câu hỏi “quy định về AI” nên hoặc thậm chí có thể là gì là câu hỏi dành cho các chính trị gia, nhà hoạch định chính sách và nhà đạo đức. Đương nhiên, điều mà các nhà đầu tư muốn biết là nó có ý nghĩa như thế nào đối với danh mục đầu tư của họ. Những rủi ro lớn nhất là gì? Và đây là nơi luật pháp và quy định có thể cung cấp một số biện pháp bảo vệ và giúp quản lý những rủi ro đó.

Rủi ro lớn nhất đối với các nhà đầu tư tập trung vào ba mối lo ngại chồng chéo cốt lõi: gian lận, bảo vệ quyền sở hữu trí tuệ và quyền riêng tư. Tất nhiên, đã có luật quy định riêng từng vấn đề này. Tuy nhiên, vấn đề là AI thể hiện sự kết hợp phức tạp đặc biệt của cả ba rủi ro mà không có khuôn khổ, luật pháp và quy định rõ ràng sẽ đe dọa sự phát triển của toàn bộ ngành.

Mối quan tâm cấp bách nhất trong danh sách đó đối với các nhà đầu tư là gian lận. Hầu hết mọi người đều có thể đồng ý rằng việc ngăn chặn gian lận là một vai trò quan trọng và thiết yếu của quy định.

Khỉ cưỡi dây lừa đảo: Hai nghiên cứu điển hình

Hai nghiên cứu điển hình cho thấy tương lai tiềm năng của các quy định về AI, nguy cơ gian lận và khung thời gian quy định mà các nhà đầu tư nên mong đợi. Cả hai cũng là điển hình cho việc gian lận sẽ định hình các hành động quản lý sắp tới như thế nào.

Đầu tiên là thế giới tiền điện tử và mã thông báo không thể thay thế (NFT). Là một ngành công nghiệp mới hơn đáng kể so với AI, tiền điện tử đã chứng kiến ​​nhiều thăng trầm và quan trọng nhất là gian lận. Ủy ban Chứng khoán và Giao dịch (SEC) và Ủy ban Thương mại Liên bang (FTC) đã dành cả thập kỷ để cố gắng tìm ra cách đưa tiền điện tử vào các kế hoạch quản lý của họ. Quốc hội vẫn chưa thông qua bất kỳ luật rõ ràng nào liên quan đến tiền điện tử mặc dù một số nỗ lực.

Trong thời gian đó, nhiều sàn giao dịch đã trỗi dậy và sụp đổ. NFT đã từ chỗ trở thành xu hướng thịnh hành vào năm 2021 và 2022 đến mất 95% giá trị, lấy đi hàng tỷ đô la của các nhà đầu tư. Khốn thay, sự sụp đổ của FTX và thử nghiệm gần đây của Sam Bankman-Fried liên quan đến hàng tỷ đô la tiền được sử dụng gian lận.

Nghiên cứu trường hợp thứ hai ở đây là về an ninh mạng. Không giống như tiền điện tử, có khá nhiều luật cốt lõi được thiết lập sẵn trong sách dành cho ngành này. Hai luật an ninh mạng “thực sự” đầu tiên là Đạo luật Lừa đảo và Lạm dụng Máy tính năm 1986 và Đạo luật Kiểm soát Tội phạm Toàn diện năm 1984. Cả hai đều dựa trên những hiểu biết sáng tạo và tương đối mới về “dây” (như trong dây điện báo) và gian lận qua đường dây.

Trong nhiều thập kỷ kể từ đó, Quốc hội đã thông qua các đạo luật từng phần về các chủ đề mạng với kết quả hỗn hợp. Điều này đã dẫn đến việc các bang gặp khó khăn. Thế giới an ninh mạng cũng là một ví dụ về một ngành có những lợi ích đan xen sâu sắc, nhiều trong số đó không khác gì những rủi ro và điểm mù pháp lý mà ngành trí tuệ nhân tạo phải đối mặt. Một trong những điều đáng chú ý nhất là quyền riêng tư. Những lo ngại về quyền riêng tư cá nhân, thường liên quan đến mạng xã hội và Internet vạn vật (IoT), cũng nảy sinh với các mô hình đào tạo AI.

Cả hai ví dụ ở đây đều cung cấp bài học cho ngành AI đang phát triển nhanh chóng. Môi trường rủi ro cao, phần thưởng cao, quy định thấp của thế giới tiền điện tử đầy rẫy gian lận và bất ổn. An ninh mạng là một ngành lâu đời và lâu đời hơn nhiều, nhưng môi trường pháp lý vẫn còn chắp vá, đặc biệt là về quyền riêng tư.

Hiện trạng các quy định về AI

Vì vậy, để biết được con đường pháp lý nào mà các nhà đầu tư nên mong đợi, hãy xem xét môi trường pháp lý hiện hành đối với trí tuệ nhân tạo.

Bắt đầu với bối cảnh trong nước, à… không có nhiều, ít nhất là về mặt lập pháp. Mặt khác, Tổng thống Joe Biden đang bận rộn xây dựng lộ trình pháp lý thông qua một cam kết tự nguyện và gần đây và quan trọng nhất là một Sắc lệnh hành pháp mang tính bước ngoặt và sâu rộng.

Đầu năm nay, Nhà Trắng đã công bố một cam kết tự nguyện không ràng buộc nhằm “quản lý rủi ro do AI gây ra.” Trong số những người ký cam kết này có một số tên tuổi lớn như Amazon (NASDAQ:AMZN), Nền tảng Meta (NASDAQ:Kim loại), Bảng chữ cái (NASDAQ:GOOG, NASDAQ:GOOGL) và OpenAI. Văn phòng Chính sách Khoa học và Công nghệ (OSTP), một cơ quan thuộc Nhà Trắng, cũng đã xuất bản một báo cáo “Kế hoạch chi tiết cho Tuyên ngôn nhân quyền của AI.” Một khuôn khổ tự nguyện đáng chú ý khác để sử dụng AI an toàn và có đạo đức.

Theo Nhà Trắng, “việc sử dụng AI an toàn và có đạo đức” yêu cầu “thử nghiệm trước khi triển khai” nghiêm ngặt và được tạo ra với “sự tư vấn từ các cộng đồng, các bên liên quan và chuyên gia lĩnh vực khác nhau để xác định các mối lo ngại, rủi ro và tác động tiềm ẩn của hệ thống”. Các hệ thống AI cũng phải có “[i]đánh giá và báo cáo độc lập” để đảm bảo rằng chúng luôn an toàn về lâu dài.

Sắc lệnh điều hành AI của Biden

Vào sáng sớm ngày 30 tháng XNUMX, Nhà Trắng đã công bố thúc đẩy quy định toàn diện nhất liên quan đến AI. Thúc đẩy nỗ lực này là một Lệnh điều hành sâu rộng (và một kiểu dáng đẹp mới trang mạng) bao gồm mọi thứ từ an toàn và bảo mật đến quyền riêng tư, quyền công dân và hơn thế nữa. Sắc lệnh Hành pháp này được xây dựng dựa trên cam kết tự nguyện nói trên và Tuyên ngôn về Quyền của AI, đồng thời nó chủ yếu tập trung vào những gì hầu hết các Sắc lệnh Hành pháp thực hiện: huy động nhiều phòng ban và cơ quan của Chi nhánh Hành pháp vào hành động.

Có nhiều chi tiết cần được giải quyết liên quan đến việc Sắc lệnh này sẽ tác động như thế nào đến ngành, nhưng những điểm đáng chú ý nhất đối với các nhà đầu tư là:

1. Sẽ mất khá nhiều thời gian để các cơ quan quản lý xây dựng các hướng dẫn và chính sách mới này.

2. Bất kỳ quy định cụ thể nào được đưa ra từ EO này sẽ được xây dựng trên nền tảng pháp lý không chắc chắn cho đến khi Quốc hội thông qua các luật liên quan đến AI. Nó vẫn phụ thuộc vào việc tuân thủ tự nguyện, với một ngoại lệ chính: Đạo luật Sản xuất Quốc phòng (DPA).

Việc Biden viện dẫn DPA vừa đáng chú ý vừa gây nhầm lẫn. DPA là luật rõ ràng thực tế duy nhất mà EO tham chiếu với một số hàm ý mạnh mẽ tiềm tàng. DPA gần đây nhất được sử dụng trong bối cảnh đại dịch Covid-19 nhưng thường liên quan đến sản xuất thời chiến. Biden đang sử dụng nó ở đây trong bối cảnh an ninh quốc gia thuần túy:

“…Lệnh sẽ yêu cầu các công ty phát triển bất kỳ mô hình nền tảng nào có nguy cơ nghiêm trọng đối với an ninh quốc gia, an ninh kinh tế quốc gia hoặc sức khỏe và an toàn công cộng quốc gia phải thông báo cho chính phủ liên bang khi đào tạo mô hình và phải chia sẻ kết quả của tất cả các báo cáo đỏ các bài kiểm tra an toàn của đội.”

Không rõ ai được bảo vệ theo “quy trình xem xét” được DPA hỗ trợ này vì các cơ quan khác có trách nhiệm quản lý cụ thể hơn. Ví dụ, Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) sẽ phát triển các tiêu chuẩn an toàn AI và Bộ An ninh Nội địa (DHS) là triển khai chúng cho cơ sở hạ tầng quan trọng. Có lẽ quan trọng hơn là cần làm rõ cơ quan nào sẽ thực hiện chính sách này.

Có một ứng cử viên đáng chú ý mà DPA gần như chắc chắn sẽ đề cập đến do các hợp đồng quốc phòng hiện có: Palantir (NYSE:PLTR). Nhà thầu quốc phòng ngày càng tập trung vào Dữ liệu lớn và AI không phải là bên ký kết thỏa thuận của Nhà Trắng cam kết tự nguyện. Điều này có thể liên quan nhiều hơn đến khuynh hướng chính trị bảo thủ-tự do của Chủ tịch Palantir Peter Thiel và sự ủng hộ dành cho cựu Tổng thống Donald Trump hơn là việc bác bỏ hoàn toàn các quy định tiếp theo. Tuy nhiên, sự thiếu sót này rất đáng chú ý vì Palantir có kế hoạch lớn cho “chiếm toàn bộ thị trường AI.”

Có thể nói, khung quy định do Sắc lệnh hành pháp của Biden đặt ra là mang tính đột phá và khuyến khích Quốc hội xây dựng phần còn lại của cơ quan quản lý.

Thật không may, chúng ta có thể phải đợi khá lâu để các nhà lập pháp bắt đầu “đổ bê tông”.

Còn Quốc hội thì sao?

Sắc lệnh điều hành AI của Nhà Trắng chỉ đưa ra hai tài liệu tham khảo cho Quốc hội, nhưng cả hai đều kêu gọi Quốc hội thông qua luật lưỡng đảng về AI (một luật rõ ràng là về việc thông qua luật riêng tư).

Theo Trung tâm Tư pháp Brennan, Quốc hội đã khoảng 60 hóa đơn liên quan đến AI ngồi trong nhiều ủy ban khác nhau.

Tuy nhiên, vào thời điểm viết bài này, Hạ viện vừa hoàn tất việc thống nhất về Chủ tịch Hạ viện mới và có “con cá lớn hơn để chiên” với một thời hạn đóng cửa chính phủ khác sắp xảy ra và kèm theo đó là cuộc chiến ngân sách sắp xảy ra. Chưa kể đến các dự luật viện trợ gây tranh cãi của Israel và Ukraine cũng như một loạt các mối lo ngại cấp bách khác.

Điều đó để lại hai nguồn khác cho các quy định về AI: từng tiểu bang của Hoa Kỳ và các chủ thể quốc tế. Nhóm trước đây, chỉ bao gồm một số ít trong số 50 bang của đất nước, đã đã vượt qua một sự chắp vá của các luật liên quan, trong đó AI và quyền riêng tư của người tiêu dùng là trọng tâm chính. Trên bình diện quốc tế, Trung Quốc đang đi đầu trong việc xây dựng một nền kinh tế bộ phức tạp và nâng cao các quy định về AI. Khung pháp lý toàn diện của Liên minh Châu Âu, có tiêu đề đơn giản là “Đạo luật AI,” dự kiến ​​sẽ được hoàn thiện và thông qua vào cuối năm nay.

Các quy định về AI và tương lai sẽ ra sao

Vậy điều này sẽ dẫn đến đâu cho ngành công nghiệp đang phát triển nhanh chóng và có khả năng đột phá cao này? Liệu nó có đi theo con đường tiền điện tử vốn đầy rẫy gian lận và bất ổn không? Hoặc con đường an ninh mạng chậm hơn, ổn định hơn nhưng vẫn còn chắp vá. Chà, hiện tại, ít nhất là ở Hoa Kỳ, nó có thể sẽ là sự kết hợp của cả hai.

AI có tiềm năng đột phá và kiếm tiền mà ngành công nghiệp tiền điện tử chỉ có thể mơ ước. Tuy nhiên, nó cũng có tiềm năng và tiện ích chủ đạo mà ngành an ninh mạng cung cấp. Đối với các nhà đầu tư, và không có vẻ quá giật gân ở đây, đối với nhân loại, đó là một sự kết hợp đầy rủi ro.

Có vô số ứng dụng tiềm năng trong thế giới thực của AI, từ nông nghiệp, quốc phòng đến tài chính và chăm sóc sức khỏe. Một vụ kéo thảm tiền điện tử có thể lừa gạt tiền của các nhà đầu tư hoặc tin tặc có thể đánh cắp tiền từ ngân hàng, nhưng rủi ro từ tai nạn AI hoặc hành vi độc hại có thể là thảm họa.

Các giả thuyết về những điều có thể xảy ra là vô tận khi AI ngày càng được đưa vào cuộc sống hàng ngày. Nhưng chúng ta đã thấy những trường hợp sử dụng độc hại đáng lo ngại đối với AI. Sự khởi đầu gần đây của cuộc chiến Israel-Hamas đã chứng kiến ​​​​một loạt thông tin sai lệch trên các nền tảng truyền thông xã hội như X, trước đây là Twitter. Một số hình ảnh giả mạo được chia sẻ trực tuyến là do AI tạo ra, thường được tạo bằng các công cụ dễ truy cập như Trình tạo hình ảnh của Bing. Với công nghệ ngày càng cải tiến, việc xác định hình ảnh và video giả mạo sẽ trở nên khó khăn hơn.

Chúng tôi cũng đang phải đối mặt với những rủi ro từng chỉ thấy trong khoa học viễn tưởng, chẳng hạn như “AI giả mạo”. Trong khi người lập kế hoạch bữa ăn bằng AI vô tình gợi ý công thức tạo ra khí clo đáng để cười khúc khích ngày nay, sẽ bớt hài hước hơn nhiều nếu đó là một AI phụ trách một trang trại tự động quy mô lớn vô tình (hoặc tệ hơn là cố ý) làm ô nhiễm một vụ rau.

Như người ta thường nói: “Quy định an toàn được viết bằng máu”. Và chúng ta thực sự không cần phải đợi đến khi máu đổ rồi mới hành động.

Về mặt pháp lý, đã có một vụ kiện chống lại Google mà theo công ty, sẽ phá hủy khái niệm về AI sáng tạo. Điều mà ngành công nghiệp cần để tránh số phận này là những quy định rõ ràng, có thể thực thi được nhằm bảo vệ cả công chúng và các công ty AI khỏi cơn thịnh nộ pháp lý của nhau.

Vì lợi ích của các nhà đầu tư và của mọi người, cần phải có sự giám sát chặt chẽ hơn về mặt pháp lý đối với ngành trí tuệ nhân tạo trước khi có điều gì đó sai trái khủng khiếp xảy ra. Sắc lệnh hành pháp mới của Nhà Trắng cung cấp một khuôn khổ rất toàn diện về nhiều vấn đề liên quan đến AI và là một khởi đầu tốt. Tuy nhiên, nếu không có luật được Quốc hội thông qua để cung cấp nền tảng vững chắc cho các cơ quan quản lý xây dựng, chúng ta sẽ kết thúc với một mớ hỗn độn các cơ quan quản lý bối rối kiểu tiền điện tử. Điều này sẽ chỉ khiến những người tham gia thị trường bối rối và các nhà đầu tư bối rối. Và với tiềm năng của AI quá lớn và nguy hiểm, đó không phải là điều mà bất kỳ ai cũng mong muốn.

Vì vậy không, các quy định về AI không "kẻ thù," như tuyên ngôn của một nhà đầu tư mạo hiểm đã nêu, nhưng chúng có thể hoạt động như những đường ray an toàn giúp bảo vệ ngành và các nhà đầu tư khỏi những rủi ro to lớn.

Nhà đầu tư nên làm gì bây giờ

Nếu không có rào cản rõ ràng, đầu tư vào thế giới trí tuệ nhân tạo là một công việc mạo hiểm. Các nhà đầu tư không thực sự lo ngại về tác động của các quy định bị loại bỏ này có thể đặt cược rủi ro hơn vào hàng loạt công ty khởi nghiệp đang cố gắng làm giàu. Hoặc trên những vở kịch đã được thiết lập nhưng không phù hợp với quy định như Palantir.

Nếu không, tốt hơn hết các nhà đầu tư nên xem công ty nào đang “chơi đùa” với cam kết tự nguyện của Nhà Trắng. Hoặc những người đang thích ứng với những thay đổi quy định quốc tế từ EU và Trung Quốc. Các công ty này có thể coi những quy định mới này là thứ họ có thể chấp nhận hoặc thứ họ có thể sử dụng để làm lợi thế cho mình.

Dù thế nào đi nữa, chiếc búa điều tiết sẽ rơi vào lúc này hay lúc khác. Sẽ là tốt nhất cho tất cả mọi người, không chỉ các nhà đầu tư, nếu nó sụp đổ trước nửa sau của biểu thức “đi nhanh và phá vỡ mọi thứ” phá vỡ ngành công nghiệp AI.

Vào ngày xuất bản, Andrew Bush giữ vị thế DÀI đối với cổ phiếu GOOGL và AMZN. Các quan điểm trình bày trong bài viết này là của người viết, tuân theo Nguyên tắc xuất bản của InvestorPlace.com.

Andrew Bush là biên tập viên tin tức tài chính của InvestorPlace và có hai bằng về Quan hệ Quốc tế. Ông đã làm việc trong lĩnh vực giáo dục, lĩnh vực công nghệ và là nhà phân tích nghiên cứu cho một công ty tư vấn tập trung vào an ninh quốc gia có trụ sở tại DC.

Liên kết nguồn

#Quy định #Tiết kiệm #Nhân loại #AI.. #Tiết kiệm #Cổ phiếu

tại chỗ_img

Tin tức mới nhất

tại chỗ_img