شعار زيفيرنت

نحن بحاجة إلى تنظيم لإنقاذ البشرية من الذكاء الاصطناعي... ولإنقاذ مخزون الذكاء الاصطناعي - CryptoInfoNet

التاريخ:

كذكاء اصطناعي (AI) دفعت التطورات مركز التكنولوجيا إلى الأمام، ومن الطبيعي أن يشم المستثمرون فرصة في الهواء. كما أنهم يشمون رائحة النماذج المطبوعة حديثًا والروتين التنظيمي الذي ينتظر فقط أخذ نصيبهم وإعاقة الآلة الصاخبة لابتكار الذكاء الاصطناعي. لكن بالنسبة لأولئك الذين يشعرون بالقلق من أن العم سام يمكن أن يسحق الصناعة من خلال لوائح وقيود جديدة، أود أن أزعم أن العكس تمامًا هو الصحيح هنا: يمكن للقوانين أن تنقذ الصناعة من نفسها. وبالتالي، فإن المزيد من اللوائح التنظيمية لهذه الصناعة تحمي المستثمرين، ولا تلحق بهم الضرر. 

في معظم الصناعات الجديدة، تعتبر كلمة "التنظيم" من المحرمات. الآن، صناعة الذكاء الاصطناعي ليست جديدة تمامًا. يعود المفهوم الحديث إلى خمسينيات القرن الماضي، وقد زادت وتضاءلت الاستثمارات الخاصة والعامة في هذا المجال على مدار السبعين عامًا الماضية أو نحو ذلك. شهدت الثمانينيات وأوائل التسعينيات أ دورة الازدهار والكساد في استثمارات الذكاء الاصطناعي. أدت استثمارات الحكومة اليابانية في الثمانينيات إلى إطلاق أول طفرة تجارية كبيرة في مجال الذكاء الاصطناعي. ومع ذلك، بحلول عام 80، "أغلقت أكثر من 1993 شركة أبوابها" مع انفجار الفقاعة. ومع ذلك، فإن التطورات الحديثة في قوة الحوسبة ونماذج اللغات الكبيرة (LLMs) أعطت الصناعة حياة جديدة، وإمكانياتها لا تجتذب المستثمرين فحسب، بل المنظمين أيضًا.

لوائح الذكاء الاصطناعي: فوضى المصالح والمخاطر

إن السؤال حول ما ينبغي أو حتى يمكن أن يكون عليه "تنظيم الذكاء الاصطناعي" هو سؤال يخص السياسيين وصناع السياسات وعلماء الأخلاق. ما يريد المستثمرون معرفته هو ما يعنيه ذلك بالنسبة لمحافظهم الاستثمارية، بطبيعة الحال. ما هي أكبر المخاطر؟ وهنا يمكن للقوانين واللوائح أن توفر بعض الحماية وتساعد في إدارة تلك المخاطر.

تتلخص أكبر المخاطر التي يواجهها المستثمرون في ثلاثة مخاوف أساسية متداخلة: الاحتيال، وحماية الملكية الفكرية، والخصوصية. وبطبيعة الحال، هناك قوانين موجودة بالفعل تتناول هذه القضايا الثلاث بشكل فردي. لكن المشكلة هي أن الذكاء الاصطناعي يمثل مزيجا معقدا بشكل فريد من المخاطر الثلاثة، والذي، في غياب أطر وقوانين وأنظمة واضحة، يهدد تقدم الصناعة بأكملها.

القلق الأكثر إلحاحا في تلك القائمة بالنسبة للمستثمرين هو الاحتيال. يمكن للجميع تقريبًا أن يتفقوا على أن منع الاحتيال هو دور مهم وحيوي للتنظيم.

القرود الاحتيالية التي تركب الأسلاك: دراستان حالة

تظهر دراستان حالة المستقبل المحتمل للوائح الذكاء الاصطناعي، ومخاطر الاحتيال، والأطر الزمنية التنظيمية التي يجب أن يتوقعها المستثمرون. وكلاهما يلخصان أيضًا كيف سيشكل الاحتيال الإجراءات التنظيمية المقبلة.

الأول هو عالم العملات المشفرة والرموز غير القابلة للاستبدال (NFTs). باعتبارها صناعة أحدث بكثير من الذكاء الاصطناعي، فقد شهدت العملات المشفرة نصيبها العادل من فترات الازدهار والكساد، والأهم من ذلك، الاحتيال. لجنة الأوراق المالية والبورصة (SEC) ولجنة التجارة الفيدرالية (FTC) أمضوا عقدًا جيدًا من الزمن في محاولة اكتشاف كيفية دمج العملات المشفرة في مخططاتهم التنظيمية. على الرغم من ذلك، لم يصدر الكونجرس بعد أي تشريع صريح يتعلق بالعملات المشفرة بعض المحاولات.

في ذلك الوقت، ارتفعت العديد من التبادلات وانهارت. لقد تحولت NFTs من الغضب الشديد في عامي 2021 و 2022 إلى خسارة 95% من قيمتها، وأخذوا معهم مليارات الدولارات من المستثمرين. من المعروف أن انهيار FTX و المحاكمة الأخيرة تورط سام بانكمان فرايد في مليارات الدولارات من الأموال المستخدمة بطريقة احتيالية.

دراسة الحالة الثانية هنا هي دراسة الأمن السيبراني. على عكس العملات المشفرة، هناك عدد لا بأس به من القوانين الأساسية المعمول بها في هذه الصناعة. كان أول قانونين "حقيقيين" للأمن السيبراني هما قانون الاحتيال وإساءة استخدام الكمبيوتر لعام 1986 وقانون مكافحة الجريمة الشاملة لعام 1984. وقد اعتمد كلاهما على فهم إبداعي وجديد نسبيا لـ "الأسلاك" (كما هو الحال في أسلاك التلغراف) والاحتيال عبر الأسلاك.

وفي العقود التي تلت ذلك، أصدر الكونجرس قوانين مجزأة بشأن الموضوعات السيبرانية نتائج متباينة. وقد أدى ذلك إلى قيام الولايات بتعويض الركود. ويقدم عالم الأمن السيبراني أيضًا مثالاً لصناعة ذات مصالح متداخلة وعميقة، وكثير منها لا يختلف عن المخاطر والنقاط التنظيمية العمياء التي تواجه صناعة الذكاء الاصطناعي. واحدة من أبرزها هي الخصوصية. تنشأ أيضًا المخاوف بشأن الخصوصية الفردية، المرتبطة عادةً بوسائل التواصل الاجتماعي وإنترنت الأشياء (IoT)، مع نماذج تدريب الذكاء الاصطناعي.

يقدم كلا المثالين هنا دروسًا لصناعة الذكاء الاصطناعي سريعة النمو. إن بيئة عالم العملات المشفرة عالية المخاطر والمكافآت والمنخفضة التنظيم مليئة بالاحتيال وعدم الاستقرار. يعد الأمن السيبراني صناعة قديمة وراسخة، لكن البيئة التنظيمية لا تزال غير مكتملة، خاصة فيما يتعلق بالخصوصية.

الوضع الحالي للوائح الذكاء الاصطناعي

لذا، للحصول على فكرة عن أي من هذه المسارات التنظيمية التي يجب أن يتوقعها المستثمرون، دعونا نلقي نظرة على البيئة التنظيمية الحالية للذكاء الاصطناعي.

بدءاً بالمشهد الداخلي، حسناً... ليس هناك الكثير، على الأقل من الناحية التشريعية. من ناحية أخرى، كان الرئيس جو بايدن مشغولاً بصياغة مسار تنظيمي من خلال تعهد طوعي، ومؤخراً وهو أمر مهم، أمر تنفيذي تاريخي وشامل.

وفي وقت سابق من هذا العام، أعلن البيت الأبيض عن تعهد طوعي غير ملزم بذلك "إدارة المخاطر التي يشكلها الذكاء الاصطناعي." ومن بين الموقعين على هذا التعهد بعض الأسماء الكبيرة مثل أمازون (NASDAQ:AMZN)، منصات ميتا (ناسداك:الهدف)، الأبجدية (ناسداك:GOOG، ناسداك:GOOGL) و OpenAI. كما نشر مكتب سياسة العلوم والتكنولوجيا (OSTP)، وهو قسم داخل البيت الأبيض، تقريرًا "مخطط لشرعة حقوق الذكاء الاصطناعي." إطار عمل تطوعي آخر للاستخدام الآمن والأخلاقي للذكاء الاصطناعي.

وفقًا للبيت الأبيض، فإن "الاستخدام الآمن والأخلاقي للذكاء الاصطناعي" يتطلب "اختبارًا ما قبل النشر" صارمًا ويتم إنشاؤه من خلال "التشاور مع مجتمعات متنوعة وأصحاب المصلحة وخبراء المجال لتحديد المخاوف والمخاطر والتأثيرات المحتملة للنظام". ويجب أن تتمتع أنظمة الذكاء الاصطناعي أيضًا "بتقييم وإعداد تقارير مستقلة" للتأكد من بقائها آمنة على المدى الطويل.

الأمر التنفيذي لبايدن بشأن الذكاء الاصطناعي

في ساعات الصباح الباكر من يوم 30 أكتوبر، أعلن البيت الأبيض عن الدفعة التنظيمية الأكثر شمولاً فيما يتعلق بالذكاء الاصطناعي. كان يقود هذا الجهد أ أمر تنفيذي شامل (وجديد أنيق موقع الكتروني) يغطي كل شيء بدءًا من السلامة والأمن وحتى الخصوصية والحقوق المدنية والمزيد. يعتمد هذا الأمر التنفيذي على التعهد الطوعي المذكور أعلاه وميثاق حقوق منظمة العفو الدولية، ويركز في الغالب على ما تفعله معظم الأوامر التنفيذية: تعبئة الإدارات والوكالات العديدة التابعة للسلطة التنفيذية للعمل.

هناك العديد من التفاصيل التي يتعين توضيحها فيما يتعلق بكيفية تأثير هذا الأمر التنفيذي على الصناعة، ولكن أهم ما يجب على المستثمرين فعله هو:

1. سيستغرق الأمر بعض الوقت حتى يتمكن المنظمون من تطوير هذه المبادئ التوجيهية والسياسات الجديدة.

2. أيًا كانت اللوائح المحددة التي سيتمخض عنها هذا الأمر التنفيذي، فسوف تكون مبنية على أرضية قانونية هشة إلى أن يصدر الكونجرس القوانين المتعلقة بالذكاء الاصطناعي. ولا يزال يعتمد على الامتثال الطوعي، مع استثناء رئيسي واحد: قانون الإنتاج الدفاعي (DPA).

إن استحضار بايدن لاتفاقية سلام دارفور أمر جدير بالملاحظة بقدر ما هو محير. كان اتفاق دارفور للسلام هو القانون الصريح الفعلي الوحيد الذي أشارت إليه منظمة أصحاب العمل مع بعض الآثار القوية المحتملة. تم استخدام DPA مؤخرًا في سياق جائحة Covid-19 ولكنه يرتبط عادةً بالإنتاج في زمن الحرب. يستخدمه بايدن هنا في سياق الأمن القومي البحت:

"... سيتطلب الأمر من الشركات التي تقوم بتطوير أي نموذج أساسي يشكل خطرًا جسيمًا على الأمن القومي، أو الأمن الاقتصادي الوطني، أو الصحة والسلامة العامة الوطنية، أن تخطر الحكومة الفيدرالية عند تدريب النموذج، ويجب أن تشارك نتائج جميع الاختبارات الحمراء. اختبارات سلامة الفريق."

ليس من الواضح من الذي يشمله "عملية المراجعة" المدعومة بهيئة حماية البيانات، حيث أن الوكالات الأخرى لديها مسؤوليات تنظيمية أكثر تحديدًا. على سبيل المثال، سيقوم المعهد الوطني للمعايير والتكنولوجيا (NIST) بتطوير معايير سلامة الذكاء الاصطناعي ووزارة الأمن الداخلي (DHS) هو تنفيذها للبنية التحتية الحيوية. وربما الأهم من ذلك هو أن هناك حاجة إلى توضيح بشأن الوكالة التي ستنفذ هذه السياسة.

هناك مرشح واحد بارز ستغطيه DPA بشكل شبه مؤكد بسبب عقود الدفاع الحالية: Palantir (NYSE:بلتر). إن شركة البيانات الضخمة ومقاول الدفاع الذي يركز بشكل متزايد على الذكاء الاصطناعي ليس من الموقعين على اتفاق البيت الأبيض تعهد طوعي. قد يكون لهذا علاقة بالميول السياسية المحافظة التحررية لرئيس شركة Palantir بيتر ثيل ودعمه للرئيس السابق دونالد ترامب أكثر من الرفض الصريح لمزيد من التنظيم. ومع ذلك، فإن هذا الإغفال ملحوظ لأن شركة Palantir لديها خطط كبيرة لتحقيق ذلك "الاستيلاء على سوق الذكاء الاصطناعي بأكمله."

يعتبر الإطار التنظيمي الذي حدده الأمر التنفيذي لبايدن، مجتمعًا، رائدًا ويدفع الكونجرس لبناء بقية البيت التنظيمي، إذا جاز التعبير.

ولكن من المؤسف أننا ربما ننتظر فترة طويلة حتى يبدأ المشرعون في "صب الخرسانة".

ماذا عن الكونجرس؟

يشير الأمر التنفيذي بشأن الذكاء الاصطناعي الصادر عن البيت الأبيض إلى إشارتين فقط إلى الكونجرس، لكن كلاهما يدعوان الكونجرس إلى تمرير قوانين الحزبين الجمهوري والديمقراطي بشأن الذكاء الاصطناعي (كانت إحداهما تتعلق صراحة بتمرير قانون الخصوصية).

وفقا لمركز برينان للعدالة، فقد فعل الكونجرس ذلك ما يقرب من 60 مشروع قانون يتعلق بالذكاء الاصطناعي الجلوس في اللجان المختلفة.

ومع ذلك، حتى كتابة هذه السطور، انتهى مجلس النواب للتو من الاتفاق على رئيس جديد لمجلس النواب ولديه "سمكة أكبر ليقليها" مع اقتراب موعد نهائي آخر لإغلاق الحكومة وما يصاحبها من معركة الميزانية. ناهيك عن مشاريع قوانين المساعدات المثيرة للجدل لإسرائيل وأوكرانيا ومجموعة أخرى من المخاوف الأكثر إلحاحاً.

وهذا يترك مصدرين آخرين لتنظيم الذكاء الاصطناعي: الولايات الأمريكية الفردية والجهات الفاعلة الدولية. المجموعة الأولى، التي تتألف من عدد قليل من الولايات الخمسين في البلاد، لديها مرت خليط للقوانين ذات الصلة، مع التركيز الأساسي على الذكاء الاصطناعي وخصوصية المستهلك. وعلى المستوى الدولي، تقود الصين الطريق في بناء مجموعة معقدة ومتقدمة من لوائح الذكاء الاصطناعي. الإطار التنظيمي الشامل للاتحاد الأوروبي، بعنوان ببساطة "قانون الذكاء الاصطناعي" ومن المتوقع أن يتم الانتهاء منه وإقراره بحلول نهاية العام.

لوائح الذكاء الاصطناعي وما يخبئه المستقبل

إذن، أين يترك هذا هذه الصناعة سريعة النمو والتي من المحتمل أن تكون مدمرة للغاية؟ فهل ستسلك مسار العملات المشفرة نحو التنظيم، الذي كان مليئًا بالاحتيال وعدم الاستقرار؟ أو مسار الأمن السيبراني الأبطأ والأكثر استقرارًا ولكنه لا يزال غير مكتمل. حسنًا، في الوقت الحالي، على الأقل في الولايات المتحدة، من المرجح أن يكون الأمر مزيجًا من الاثنين.

يتمتع الذكاء الاصطناعي بإمكانات مدمرة وإمكانات لكسب المال لا يمكن أن تحلم بها صناعة العملات المشفرة. ومع ذلك، فهي تتمتع أيضًا بالإمكانات والمنفعة السائدة التي توفرها صناعة الأمن السيبراني. بالنسبة للمستثمرين، وحتى لا يبدو الأمر مثيرًا للغاية هنا، بالنسبة للبشرية، يعد هذا مزيجًا محفوفًا بالمخاطر.

هناك عدد لا يحصى من التطبيقات الواقعية المحتملة للذكاء الاصطناعي، من الزراعة إلى الدفاع إلى التمويل والرعاية الصحية. يمكن أن يؤدي سحب بساط العملة المشفرة إلى الاحتيال على المستثمرين وأموالهم، أو يمكن أن يسرق أحد المتسللين الأموال من أحد البنوك، ولكن المخاطر الناجمة عن حوادث الذكاء الاصطناعي أو السلوك الضار يمكن أن تكون كارثية.

إن الافتراضات حول ما يمكن أن يحدث من خطأ لا حصر لها مع دمج الذكاء الاصطناعي في الحياة اليومية. لكننا نشهد بالفعل حالات استخدام ضارة مثيرة للقلق للذكاء الاصطناعي. شهدت البداية الأخيرة للحرب بين إسرائيل وحماس سيلاً من المعلومات المضللة على منصات التواصل الاجتماعي مثل X، تويتر سابقًا. بعض الصور المزيفة التي تتم مشاركتها عبر الإنترنت يتم إنشاؤها بواسطة الذكاء الاصطناعي، وغالبًا ما يتم إنشاؤها باستخدام أدوات يمكن الوصول إليها بسهولة مثل Bing’s Image Generator. مع التطور التكنولوجي المستمر، سيصبح من الصعب التعرف على الصور ومقاطع الفيديو المزيفة.

كما أننا نتصدى لمخاطر لم تكن موجودة ذات يوم إلا في الخيال العلمي، مثل "الذكاء الاصطناعي المارق". أثناء وجود مخطط وجبات يعمل بالذكاء الاصطناعي يقترح عن طريق الخطأ وصفة لغاز الكلور يستحق الأمر بعض الضحكات الخافتة اليوم، لكنه سيكون أقل فكاهة بكثير لو كان الذكاء الاصطناعي مسؤولا، على سبيل المثال، عن مزرعة آلية واسعة النطاق عن طريق الخطأ (أو الأسوأ من ذلك، عمدا) تلويث محصول من الخضروات.

وكما يقول المثل: "قواعد السلامة مكتوبة بالدم". ولا ينبغي لنا حقاً أن ننتظر حتى تراق الدماء قبل أن نتخذ أي إجراء.

من الناحية القانونية، هناك بالفعل "مطرقة ثقيلة" لقضية مرفوعة ضد Google والتي، وفقًا للشركة، ستؤدي إلى تدمير مفهوم الذكاء الاصطناعي التوليدي. ما تحتاجه الصناعة لتجنب هذا المصير هو لوائح تنظيمية واضحة وقابلة للتنفيذ يمكنها حماية كل من الجمهور وشركات الذكاء الاصطناعي من الغضب القانوني لبعضها البعض.

ومن أجل مصلحة المستثمرين والجميع، يجب أن يكون هناك المزيد من الرقابة التنظيمية على صناعة الذكاء الاصطناعي قبل أن تسوء الأمور بشكل فظيع. يوفر الأمر التنفيذي الجديد للبيت الأبيض إطارًا شاملاً للغاية بشأن العديد من القضايا المتعلقة بالذكاء الاصطناعي، وهو بداية جيدة. ومع ذلك، بدون القوانين التي أقرها الكونجرس والتي توفر أساسًا متينًا للمنظمين للبناء عليه، فسوف ينتهي بنا الأمر إلى فوضى على غرار العملات المشفرة من المنظمين المرتبكين. وهذا لن يؤدي إلا إلى إرباك المشاركين في السوق وإرباك المستثمرين. ومع احتمالية كون الذكاء الاصطناعي عظيمًا وخطيرًا جدًا، فهذا ليس شيئًا يجب على أي شخص أن يريده.

لذلك لا، لوائح الذكاء الاصطناعي ليست كذلك "العدو،" وكما قال بيان أحد أصحاب رأس المال الاستثماري، فإنها يمكن أن تكون بمثابة قضبان أمان يمكن أن تساعد في حماية الصناعة والمستثمرين من المخاطر الهائلة.

ما يجب على المستثمرين فعله الآن

وبدون حواجز حماية واضحة، فإن الاستثمار في عالم الذكاء الاصطناعي يعد عملاً محفوفًا بالمخاطر. يمكن للمستثمرين الذين لا يشعرون بالقلق الشديد إزاء تأثير هذه اللوائح الملغاة أن يقوموا برهانات أكثر خطورة على مجموعة من الشركات الناشئة التي تحاول تحقيق الثراء. أو في المسرحيات الراسخة ولكن الرافضة للتنظيم مثل بالانتير.

وإلا فسيكون من الأفضل للمستثمرين أن يروا أي الشركات "تلعب الكرة" مع التعهد الطوعي الذي قدمه البيت الأبيض. أو تلك التي تتكيف مع التغييرات التنظيمية الدولية الصادرة عن الاتحاد الأوروبي والصين. من المحتمل أن تنظر هذه الشركات إلى هذه اللوائح الجديدة على أنها شيء يمكنها التعايش معه أو شيء يمكنها استخدامه لصالحها.

وفي كلتا الحالتين، فإن مطرقة التنظيم سوف تسقط عند نقطة أو أخرى. سيكون من الأفضل للجميع، وليس للمستثمرين فقط، أن يهبط السعر قبل أن يكسر النصف الأخير من عبارة "تحرك بسرعة وكسر الأشياء" صناعة الذكاء الاصطناعي.

في تاريخ النشر، كان أندرو بوش يشغل مركزًا طويلًا في أسهم GOOGL وAMZN. الآراء الواردة في هذا المقال هي آراء الكاتب، وتخضع لإرشادات النشر الخاصة بموقع InvestorPlace.com.

أندرو بوش هو محرر الأخبار المالية في InvestorPlace ويحمل درجتين في الشؤون الدولية. وقد عمل في التعليم وقطاع التكنولوجيا وكمحلل أبحاث لشركة استشارية تركز على الأمن القومي ومقرها واشنطن العاصمة.

رابط المصدر

#التنظيم #أنقذوا #الإنسانية #الذكاء الاصطناعي.. #أنقذوا #الأسهم

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة