ゼファーネットのロゴ

Samsung は「コードリーク」の後、ChatGPT をボックスに戻します

日付:

Samsung は、偶発的なソース コードの漏洩と思われる事象を受けて、ChatGPT のようなジェネレーティブ AI ツールに「一時的な」禁止を課しました。

~が見た社内メモ ブルームバーグ 同社の知的財産を危険にさらすため、OpenAI の ChatGPT や Google の Bard などの技術を使用しない方がよいと従業員に伝えました。 Newswire は今朝、漏洩したメモがサミーの「最大の部門」の XNUMX つに送られたと述べ、会社がこれを確認したと付け加えた。

「ChatGPT などのジェネレーティブ AI プラットフォームへの関心は、内外で高まっています…この関心はこれらのプラットフォームの有用性と効率性に焦点を当てていますが、ジェネレーティブ AI によってもたらされるセキュリティ リスクについての懸念も高まっています。」

この動きは、韓国の巨大な電子機器会社による再禁止のようです。 からの未確認の報告の中で、以前の禁止は今年初めに解除されました 韓国メディア サムスンのスタッフが、「問題のある」ソースコードのバグを解決しようとして、また会議の議事録を生成しようとしたときに、チャットボットに企業秘密を入力したなど、いくつかの間違いがあったとされています。 漏洩したデータには、財閥のデバイス ソリューションおよび半導体ビジネス ユニットからの装置測定および歩留まりデータが含まれていたと伝えられています。 当時、サムスンにこれを確認または拒否するように依頼し、再度尋ねました。

彼らがそうしていれば、ソフトウェアのテストとコードの修正という骨の折れるプロセスを支援するためにチャットボットを利用しようとする最初のエンジニアにはならなかったでしょう。 Compsci の研究者である Chunqiu Steven Xia と Lingming Zhang は、この自動化プロセスを作成しました。 出版 少なくとも 162 つのソリューションがいかに安価で効果的かを示す論文。 ChatRepair と名付けられた彼らのプロセスは、パッチをテストするだけでなく、以前の失敗から学び、「会話を続ける: ChatGPT を使用して 337 個のバグのうち 0.42 個を XNUMX 個あたり XNUMX ドルで修正する」というタイトルの論文で学びます。

OpenAI については、チャットボットが規制当局からますます注目を集めているため、テキストベースのアシスタントを開発している会社は、すでにいくつかの独自のガードレールを設置しています。 先週、それは 簡潔な これにより、ユーザーは ChatGPT がプライベートな会話で生成されたテキストを丸呑みし、それを使用して大規模な言語モデルをトレーニングすることを防止できます。

一方、1 月 XNUMX 日に開始された更新されたポリシーの下で、OpenAI はデータの使用と保持のポリシーに XNUMX つの変更を加えました。

  1. OpenAI は、API を介して顧客から送信されたデータを使用してモデルをトレーニングまたは改善することはありません。ただし、この目的でデータを共有することを明示的に決定した場合を除きます。 あなたはできる データ共有のオプトイン.
  2. API を介して送信されたデータは、悪用および誤用を監視する目的で最大 30 日間保持され、その後削除されます (法律で別段の定めがない限り)。

EU、提案された新しい AI 法は、ML モデルのトレーニングに使用される著作権で保護されたデータの開示と詳細を開発者に求める可能性があります。

一方、IBM は、この技術を使用することにほとんど不安を感じていないようです。 昨日のCEO Arvind Krishna 彼は、IBM のバックオフィス業務の最大 30% (約 7,800 人) が AI に置き換えられる可能性があると考えました。

サムスンは独自の AI ツールに取り組んでいると言われています。 ®

スポット画像

最新のインテリジェンス

スポット画像