AIが未来であることは否定できません。 それは新しい展望への扉を解き放ち、かつては不可能と思われていたことを可能にするでしょう。
車と話したり、バーチャルアシスタントと議論したり、AIコーチの助けを借りてスポーツの新記録を更新したりします。
真実は、私たち全員がAI、AIが実行できる驚くべきこと、そしてAIが解決できる現実の問題に魅了されているということです。
しかし、AIには無視できないもうXNUMXつの暗い側面もあります。 AIの危険性はもはや映画のフィクションではありません。 彼らは本物であり、私たちの目の前にいます。 今気づかないと手遅れになります。
このブログでは、今年と将来に気付く必要のある10の重要なAIの脅威について説明します。 さぁ、始めよう:
後ろのアイデア AI 私たち人間を捕らえている憎しみ、人種差別、偏見のない意見のないシステムを作ることでした。
しかし、AIシステムが人種差別、憎悪、偏見も促進し始めたらどうなるでしょうか。
このようなことが2016年にMicrosoftAIが起こったときに起こりました チャットボット と呼ばれるテイはツイッターで完全なナチスに行き、ナチスの感情や人種的な形容詞をツイートし始めました。 物事は非常に不均衡に吹き飛んだので、マイクロソフトは AI わずか16時間でオフライン。
AIは、意図的に挑発している他の人間のユーザーの行動を模倣しようとしていることが判明しました。
のシナリオはそれだけではありません AI 偏見を促進する。 白人の人口と比較して少数民族に部分的であるAIシステムの多くの例があります。
これは、私たち人間のこれらすべての貧弱な価値観がに渡される可能性があるという深刻な懸念につながります AI システムも同様であり、それは事態を悪化させるだけです。
1.ヨーロッパのFacebookページのメッセンジャールールが変更されています。 知っておくべきことは次のとおりです
数日前、私はLinkedInの投稿を読んでいて、AIが将来ほとんどの仕事に取って代わる方法について話していました。
「400年までに800億から2030億人近くの仕事がAIに置き換えられ、375億XNUMX万人が他のキャリアオプションを探す必要があります。」 言及された投稿。
したがって、AIによる自動化の仕事は深刻な懸念事項であり、失業の増加、若者の落ち込み、さらには暴力の悪化につながる可能性があります。
AIは、求職者が新しい仕事を探すことをさらに悪化させています。 ほとんどの求人応募は、応募者追跡システムによってすぐに拒否されます。
採用担当者はそれを理想的な候補者の除外と呼んでいますが、最も有望な候補者でさえ候補者リストに入れられない場合があります。 このように、求職者と採用担当者の両方が苦しんでいます。
Facebook- 2016年のケンブリッジアナリティカスキャンダル 私たちを核心に揺さぶった。 初めて、私たちの個人情報が非公開ではなくなったことを理解しました。
私たちは毎日2.5万テラバイトのデータを生成しています。 これだけのデータにアクセスできるAIシステムがどれほどのダメージを与えることができるのか疑問に思ったことはありませんか?
企業は私たちの行動に影響を与え、私たちに彼らが望むことをさせることができます。 彼らは私たちに彼らの製品を購入させ、彼らの目的に合った人々に投票し、彼らに有利な決定を支持させることができます。
このようにして、私たちの決定はもはや私たちのものではなくなります。 私たちは、利益のためにあらゆるレベルに屈することをいとわない組織の手に渡る操り人形になるでしょう。
AIの最大の成果のXNUMXつは、AIが独自にコンテンツを作成できることです。 市場には、顔の作成、テキストの作成、ツイートの作成、音声の複製が可能なアプリがあります。 それは広告に大いに役立ちます。
ただし、悪意のある人々は同じソフトウェアを使用して、偽のニュース、噂を広め、他の人を脅迫しています。
したがって、誰かがあなたの写真を撮り、偽のビデオを作成し、それをあなたの友人に公開すると言って脅迫することはそれほど難しくありません。 フェイススワップビデオ恐喝と呼ばれるこれらすべての用語さえあります。
さらに悪いことに、彼らはビデオをリリースするかもしれません。 じゃあ何? あなたの苦労して得た評判はほんの数分で消えます。 最悪の部分は、それが真実であるかどうかにかかわらず、誰も気にしないことです。
有名人や政治家はすでにこの脅威の餌食になっており、まもなくそれは私やあなたのような人々を悩ませます。
最も幸福なものでさえ、悪意のある人の手に渡ると呪いに変わります。これをAIほどうまく説明できる類推はありません。
人工知能(AI)は、サイバーセキュリティを次のレベルに引き上げただけでなく、新たな脅威への扉を開きました。
私たちはもはや、昔ながらのコモディティマルウェアによる人間主導の攻撃に直面していません。 サイバーテロリストは進化してきました。 彼らは現在、AIを活用してシステムを攻撃およびシャットダウンしています。
AI、安全なシステムのクラッキング、安全なチャットの暗号化、機密性の高いWebサイトへのハッキングのおかげで、サイバー犯罪者にとっては簡単なことです。
あなたはそれがどれほどのダメージを与えることができるか想像することさえできますか?
Facebook、Microsoft、Google、Apple、Alibaba、Tencent、Baidu、Amazon。 これらは、世界で最も強力なXNUMXつの企業です。 彼らには、AIの力をまったく新しいレベルに引き上げる力と経済的能力があります。
したがって、そのような強力なテクノロジーは、それを好きなように利用し、彼らの最善の利益に奉仕することができる少数のプレーヤーの手に渡ることになります。 これにより、データの独占と管理のリスクが生じます。
AIは、複雑なタスクを簡素化することで私たちの生活を楽にするだけでなく、私たちを人間にしたものとの接触を失うことにもなります。
私たちはもはや手で書いたり、本を読んだり、小さな散歩をしたり、自然と一緒に時間を過ごしたりすることはありません。 家族と話す代わりに、私たちは何時間も自分の携帯電話を見て、馬鹿のように笑っています。
実生活のスキルを失い、テクノロジーへの依存度が高まっているようですが、これは良いことではありません。 それは私たちを人間にするすべてのものを奪い、私たちの生活をより良くすることが期待されていたのと同じ技術の奴隷に変えます。
「私の言葉に印を付けてください—AIは核兵器よりもはるかに危険です。」 Elon Muskは、2018年の南西部の技術会議で、AIによって制御される自律型兵器の影響について警告しました。
他の115人の専門家とともに、マスク氏は自律型兵器の潜在的な脅威とそれらが与える可能性のある損害のレベルを指摘しました。
彼の言ったことは完全に理にかなっています。 テクノロジーは進化してきましたが、最悪の部分は簡単にアクセスできることです。 携帯電話から制御するカメラ付きの高品質ドローンを購入し、ドローンに顔認識ソフトウェアをインストールして、恨みを持っている特定の人物を追跡して狩ることができます。
それが欲しいですか? 誰かがソファに座って何マイルも離れたところからドローンを制御するほど簡単に誰かの命を奪うことができますか?
さらに悪いことに、AIが生と死についての決定を下すためにそれを引き受けるとしたらどうでしょうか? 私たちが決して望んでいないものである虐殺があるでしょう。
これが私が最も疑問に思っていることです:
ある日、私たち人間よりもはるかにインテリジェントなシステムを構築し、それが世界を引き継ぐことを決定した場合はどうなるでしょうか。
この懸念を提起しているのは私だけではありませんが、ほとんどの場合、映画がもたらす恐怖の名の下に反論されています。
しかし、これは私たちがこの脅威を真剣に受け止め始めるべき時です。 AIは以前よりも強力になっています。 私たちは現在のチェスチャンピオンを打ち負かすAIシステムを開発し、人間のように振る舞うロボットを作成し、個人秘書よりもはるかに優れた仕事をする仮想アシスタントを作成しています。
誰かが人間よりもインテリジェントなシステムを作成するのにどれくらい時間がかかると思いますか? それが起こるとき、物事は劇的になります。
私たちが望む最後のことは、マシンが世界を乗っ取り、キラーロボットが通りを自由に歩き回っているターミネーターのようなシナリオです。
「自動運転車による事故の責任者は誰ですか?」 専門家はしばしば不思議に思うでしょう。
自動運転車が市場に投入することを決定したときに、自動運転車が法務当局から多くの反発に直面した主な理由です。 彼らは、事故が発生した場合に誰に責任を負わせるべきか、車の所有者または自動運転車を設計した会社を決定することができませんでした。
自動運転車だけではありません。 当局は、AIがそれ自体で学習した後に不正になり、独自の結論を導き出し始めたシナリオでも同様の懸念を抱いています。
当局は、会社のせいにするのかAI自体のせいにするのか疑問に思うことがよくありますが、それでも信頼できる答えはありません。
- AIシステムは情報に従って動作するため、適切な情報をAIシステムにフィードする必要があります。AIシステムにフィードします。
- 企業は賢明に自動化する必要があります。 日常的な日常業務を自動化することは賢明ですが、人間の関与が必要な領域はまだあります。
- を使用することを検討してください VPNソフトウェア。 Web上で詳細を機密に保つことにより、重要なデータの誤用を防ぎます。
- 従業員のトレーニングは必須です。 彼らは、AIの使用方法と、不正行為を防ぐために留意しなければならないことを知っておく必要があります。
- 採用担当者は応募者追跡システムを使用する必要がありますが、完全にそれらに依存することは避けてください。 これにより、AIが適切と見なさなかったという理由だけで、ふさわしい候補者を失うことがなくなります。
- 人々は彼らのスキルを高め続けるべきです。 これにより、常に需要が維持されます。 AIは労働に取って代わることはできますが、スキルに取って代わることはできません。
- 私たちがオンラインで共有しているデータをどのように扱っているかについては、厳格な法律が必要です。
- ソーシャルメディアチャネルは、AIの力を利用して、憎悪、人種差別、偏見を広めているアカウントをチェックする必要があります。 Instagramはすでにそのようなアカウントとハッシュタグをシャドウ禁止しています。 実際、それは主な理由のXNUMXつです ソーシャルメディアアカウントで機能しないハッシュタグ.
- 悪用されないように、オンラインで共有している情報の量を認識する必要があります。
- コンテンツを作成できるAIシステムを厳しくチェックする必要があります。 誰かの個人情報を無断で悪用することを防ぐための厳格なガイドラインが必要であり、そうする人は厳しく罰せられるべきです。
- サイバーセキュリティは進化する必要があります。 AIだけがAI攻撃の脅威を克服できます。 企業は、サイバーセキュリティメッシュのような高度なセキュリティ対策を講じることを考え始める必要があります。
- 当局は、企業がAIを活用する方法について厳格なガイドラインを作成する必要があります。 一部の政府は、スパイやその他の有害な目的でAIを使用していたアプリを禁止することでこの決定を下しました。
- AIは私たちの生活を向上させていますが、AIにますます依存するようになることはないので、AIを使用する必要があります。 テクノロジーがないときに生き残ることができるように、私たちは人間になるスキルとの接触を失う必要があります。 バランスを見つける必要があります。
- AIを開発している企業や科学者は、AIシステムがどのように動作するかを決定する上で重要な役割を果たすため、良心を失ってはなりません。
- 企業は責任を負い、AIの使用が社会の利益のために行われるようにする必要があります。
最近YouTubeで見たビデオからいくつかの言葉を引用したいと思います。
「AIマシンには良心がありません。 彼らの行動は、人間の意識を反映したものにすぎません。」
したがって、これらのAIシステムを開発する際に、私たち人間が意識を失わないことが不可欠です。 人種差別、貪欲、偏見、偏見をすべて伝えるのではなく、正しい情報を伝える必要があります。
結局のところ、私たちはAIが私たち自身の最悪のバージョンではなく、私たちの素晴らしいパートナーになることを望んでいます。 それは私たちを正しい道に保ち、AIが私たちの存在に対する脅威にならないようにするのに役立つ唯一のものです。
そして、そうするための最良の方法は今です—それは今または決してないので、そして明日は手遅れになるでしょう。 あなたの考えは何ですか?