ゼファーネットのロゴ

2024 年の最も重要な AI トレンド – IBM ブログ

日付:


2024 年の最も重要な AI トレンド – IBM ブログ



成功への計画に沿ってチームを指揮する

2022 年は生成型人工知能 (AI) が国民の意識に爆発的に普及した年であり、2023 年はそれがビジネスの世界に根付き始めた年でした。したがって、2024 年は、AI の将来にとって極めて重要な年となるでしょう。研究者や企業は、このテクノロジーの進化の飛躍を私たちの日常生活に最も実際的に統合できる方法を確立しようとしているからです。

生成 AI の進化は、劇的に加速したタイムラインではあるものの、コンピューターの進化を反映しています。少数のプレーヤーが提供していた大規模で集中管理されるメインフレーム コンピューターは、企業や研究機関が利用できる、より小型で効率的なマシンに取って代わられました。その後の数十年間で、段階的な進歩により、趣味の人がいじることができる家庭用コンピュータが誕生しました。やがて、直感的なコード不要のインターフェイスを備えた強力なパーソナル コンピューターが普及するようになりました。

生成 AI はすでに「愛好家」の段階に達しており、コンピューターと同様に、さらなる進歩により、より小さなパッケージでより優れたパフォーマンスを達成することが目指しられています。 2023 年には効率性が爆発的に高まりました 基礎モデル オープン ライセンスで、Meta の大規模言語モデル (LLM) の LlaMa ファミリの立ち上げから始まり、StableLM、Falcon、Mistral、および ラマ2。 DeepFloyd と Stable Diffusion は、主要な独自モデルとの相対的な同等性を達成しました。オープンソース コミュニティによって開発された微調整技術とデータセットによって強化された多くのオープン モデルは、パラメータ数がはるかに少ないにもかかわらず、ほとんどのベンチマークで最も強力なクローズド ソース モデルを除くすべてのモデルを上回るパフォーマンスを発揮できるようになりました。

進歩のペースが加速するにつれ、最先端のモデルの拡張し続ける機能がメディアの注目を集めるようになります。しかし、最も影響力のある開発は、ガバナンス、ミドルウェア、トレーニング技術、生成 AI をさらに活用するデータ パイプラインに焦点を当てた開発である可能性があります。 信頼できる, 持続可能な 企業にとってもエンドユーザーにとっても同様にアクセス可能です。

来年注目すべき現在の AI の重要なトレンドをいくつか紹介します。

  • 現実性チェック: より現実的な期待
  • マルチモーダル AI
  • 小規模な言語モデルとオープンソースの進歩
  • GPU不足とクラウドコスト
  • モデルの最適化がより身近になりました
  • カスタマイズされたローカル モデルとデータ パイプライン
  • より強力な仮想エージェント
  • 規制、著作権、AI の倫理的懸念
  • シャドウ AI (および企業の AI ポリシー)

現実性チェック: より現実的な期待

生成 AI が初めて大衆の認識に到達したとき、典型的なビジネス リーダーの知識は主にマーケティング資料や息をのむようなニュース報道から得られました。具体的な経験は (あったとしても) ChatGPT と DALL-E をいじることに限られていました。問題が解決した今、ビジネス コミュニティは AI を活用したソリューションについてより洗練された理解を持っています。

Gartner のハイプ サイクルでは、Generative AI が「期待の高まりのピーク」にあり、「幻滅の谷」に突入する直前に位置しています。[I]—言い換えれば、(比較的)圧倒的な移行期に入ろうとしている—一方、デロイトの 1 年第 2024 四半期の「企業内で生成された AI の現状」レポートでは、多くのリーダーが「短期的には大きな変革的影響を期待している」ことが示されています。[II] 現実はおそらくその中間になるでしょう。生成 AI は独自の機会とソリューションを提供しますが、それがすべての人にとってすべてではありません。

現実世界の結果が誇大広告とどのように比較されるかは、部分的には視点の問題です。通常、ChatGPT のようなスタンドアロン ツールが人気の中心的な役割を果たしますが、確立されたサービスにスムーズに統合すると、より多くの持続力が得られることがよくあります。現在のハイプ サイクルが起こる前は、2018 年に Google が公開した「Smart Compose」機能のような生成的機械学習ツールは、今日のテキスト生成サービスの前兆であるにもかかわらず、パラダイム シフトとして予告されることはありませんでした。同様に、影響力の高い多くの生成 AI ツールが、既存のツールを変革したり置き換えたりするのではなく、強化し補完するエンタープライズ環境の統合要素として実装されています。たとえば、Microsoft Office の「Copilot」機能、Adobe の「Generative Fill」機能などです。フォトショップとか 生産性向上アプリとコラボレーション アプリの仮想エージェント.

日常のワークフローの中で生成型 AI が最初に勢いを増す場所は、特定の AI 機能の仮説上の利点よりも、AI ツールの将来により大きな影響を与えるでしょう。最近の情報によると、 大企業規模の企業の従業員 1,000 人以上を対象とした IBM の調査によると、AI 導入を促進する上位 3 つの要因は、AI ツールの利用しやすさを高める AI ツールの進歩、コスト削減と主要プロセスの自動化の必要性、標準的な既製のビジネス アプリケーションに組み込まれる AI の量の増加でした。

マルチモーダル AI (およびビデオ)

そうは言っても、最先端の生成 AI への野心は高まっています。次の進歩の波は、特定のドメイン内のパフォーマンスを向上させるだけでなく、 マルチモーダル モデル 複数のタイプのデータを入力として受け取ることができます。さまざまなデータ モダリティにわたって動作するモデルは厳密には新しい現象ではありませんが、CLIP のようなテキストから画像へのモデルや Wave2Vec のような音声からテキストへのモデルは何年も前から存在していますが、通常、これらは一方向でのみ動作しており、特定のタスクを達成するために訓練されました。

OpenAI の GPT-4V や Google の Gemini などの独自モデルと、LLaVa、Adept、Qwen-VL などのオープンソース モデルで構成される次期学際モデルは、自然言語処理 (NLP) タスクとコンピューター ビジョン タスクの間を自由に移動できます。新型モデルも続々登場 ビデオ 1 月下旬、Google はテキストからビデオへの拡散モデルである Lumiere を発表しました。これは、画像からビデオへのタスクを実行したり、スタイルの参照に画像を使用したりすることもできます。

マルチモーダル AI の最も直接的なメリットは、より直観的で多用途な AI アプリケーションと仮想アシスタントです。たとえば、ユーザーは画像について質問すると自然言語で答えが得られます。また、何かを修復する方法を大声で尋ねると、段階的なテキストの指示とともに視覚的な支援を受けることができます。

より高いレベルでは、マルチモーダル AI により、モデルがより多様なデータ入力を処理できるようになり、トレーニングと推論に利用できる情報が強化および拡張されます。特にビデオは、総合的な学習に大きな可能性をもたらします。スタンフォード人間中心人工知能研究所 (HAI) の特別教育研究員ピーター・ノーヴィグ氏は、「24 時間年中無休で稼働しているカメラは、フィルタリングや意図性を持たずに、起こったことをありのままに捉えています」と述べています。 。[III] 「AI モデルにはこれまでそのようなデータはありませんでした。これらのモデルはすべてをよりよく理解できるようになります。」

小規模な言語モデルとオープンソースの進歩

ドメイン固有のモデル、特に LLM では、パラメータ数が増えると利益が減少するという点に達している可能性があります。 OpenAI の CEO、サム アルトマン氏 (同社の GPT-4 モデルは約 1.76 であると噂されています) 1兆 パラメータ)、昨年 4 月の MIT の Imagination in Action イベントでも同様のことを示唆しました。「私たちは、これらの巨大なモデルが主流になる時代の終わりに来ていると思います。そして、私たちは他の方法でモデルをより良くするでしょう」と彼は予測しました。 「パラメーター数に重点が置かれすぎているように思います。」

大規模なモデルは、現在進行中の AI 黄金時代を活性化させましたが、欠点がないわけではありません。数千億のパラメータを持つエネルギーを大量に消費するモデルをトレーニングおよび維持するための資金とサーバー スペースを持っているのは、非常に大規模な企業だけです。ワシントン大学の推定によると、単一の GPT-3 サイズのモデルをトレーニングするには、 毎年 1,000世帯以上の電力消費量。 ChatGPT クエリの標準的な 33,000 日は、米国の XNUMX 世帯の XNUMX 日のエネルギー消費量に匹敵します。[IV]

一方、より小型のモデルは、リソースの消費量がはるかに少なくなります。影響力のある 2022 年 XNUMX 月の論文 Deepmind の研究では、より多くのデータでより小さなモデルをトレーニングすると、より少ないデータでより大きなモデルをトレーニングするよりもパフォーマンスが向上することが実証されました。したがって、LLM で現在進行中のイノベーションの多くは、より少ないパラメータからより大きな出力を生み出すことに重点を置いています。 3 ~ 70 億のパラメーター範囲のモデル、特に 2 年の LLaMa、Llama 2023、および Mistral 基礎モデルに基づいて構築されたモデルの最近の進歩によって実証されているように、モデルはパフォーマンスをあまり犠牲にすることなく小型化できます。

オープンモデルの力は今後も拡大していくでしょう。 2023 年 XNUMX 月、ミストラルは「Mixtral」をリリースしました。 専門家の混合 (環境省) それぞれ 8 億のパラメーターを持つ 7 つのニューラル ネットワークを統合したモデル。 Mistral は、Mistral はほとんどのベンチマークで 70 倍速い推論速度で Llama 2 の 6B パラメータ バリアントよりも優れているだけでなく、OpenAI のパフォーマンスと同等かそれを上回っていると主張しています。 遠く ほとんどの標準ベンチマークでは GPT-3.5 が大きくなります。その直後、Meta は 3 月に、すでに Llama 3 モデルのトレーニングを開始し、オープンソース化することを確認したと発表しました。詳細 (モデルのサイズなど) は確認されていませんが、Llama XNUMX が XNUMX 世代前のフレームワークに従うと期待するのは妥当です。

小型モデルにおけるこうした進歩には、次の 3 つの重要な利点があります。

  • これらは AI の民主化に役立ちます。 より入手しやすいハードウェアで低コストで実行できる小規模なモデルにより、より多くのアマチュアや機関が既存のモデルを研究、トレーニング、改善できるようになります。
  • これらは、より小型のデバイス上でローカルに実行できます。 これにより、エッジ コンピューティングやモノのインターネット (IoT) などのシナリオで、より高度な AI が可能になります。さらに、ユーザーのスマートフォンなどでモデルをローカルで実行すると、機密の個人データや専有データとのやり取りから生じるプライバシーやサイバーセキュリティの多くの懸念を回避するのに役立ちます。
  • AI をより説明しやすくします。 モデルが大きくなるほど、重要な決定をどこでどのように行うかを正確に特定することが難しくなります。 説明可能なAI AI システムの出力を理解し、改善し、信頼するためには不可欠です。

GPU不足とクラウドコスト

ハードウェアの可用性が低下するにつれてクラウド コンピューティングのコストが増加するため、より小型のモデルへの傾向は、起業家の活力だけでなく必要性によっても推進されるでしょう。

スタンフォード HAI の副所長兼研究部門ディレクターのジェームス ランデー氏は、「大企業 (およびその多く) は、AI 機能を社内に導入しようとしています。そのため、GPU は少し行き詰まっています」と述べています。 「これは、GPU の生産量の増加だけでなく、イノベーターにとって、より安価で製造と使用が容易なハードウェア ソリューションを考案するという大きなプレッシャーを生み出すことになります。」1

2023 年後半のオライリーのレポートで説明されているように、現在、クラウド プロバイダーがコンピューティングの負担の多くを負担しています。独自のインフラストラクチャを維持している AI 採用者は比較的少なく、ハードウェア不足により、オンプレミス サーバーのセットアップのハードルとコストが上昇するだけです。プロバイダーが生成 AI からの需要に効果的に応えるために独自のインフラストラクチャを更新および最適化するため、長期的にはクラウド コストに上昇圧力がかかる可能性があります。[V]

企業にとって、この不確実な状況を乗り切るには、モデルと展開環境の両方の観点から、必要に応じてより小型で効率的なモデルを、実用的な場合にはより大型でよりパフォーマンスの高いモデルを利用するという柔軟性が必要です。 IBM CEO の Arvind Krishna 氏は、「人々が [モデル] を導入する場所を制限したくありません」と述べています。 2023 年 XNUMX 月の CNBC とのインタビュー、IBM を参照して ワトソンクス プラットホーム。 「したがって、彼らがそれを大規模なパブリック クラウドにデプロイしたい場合は、私たちはそこでそれを行います。彼らがそれを IBM で導入したいのであれば、私たちは IBM でそれを行います。彼らが自力でやりたいと思っていて、たまたま十分なインフラを持っているのであれば、私たちはそこでやります。」

モデルの最適化がより身近になりました

よりコンパクトなモデルのパフォーマンスを最大化する傾向は、オープンソース コミュニティの最近の成果によってうまく機能しています。 

多くの重要な進歩は、新しい基礎モデルだけでなく、トレーニング、微調整、微調整、または事前トレーニング済みモデルの調整のための新しい技術やリソース (オープンソース データセットなど) によって推進されてきました (そして今後もそうあり続けるでしょう)。 2023 年に定着した注目すべきモデルに依存しない手法には次のものがあります。

  • 低ランク適応 (LoRA): 何十億ものモデルパラメータを直接微調整するのではなく、 LoRA では、事前トレーニングされたモデルの重みをフリーズし、トレーニング可能なレイヤーを注入する必要があります。これは、モデルの重みへの変更のマトリックスを 2 より小さいものとして表します (下位ランク) 行列 - 各変圧器ブロック内。これにより、更新する必要があるパラメータの数が大幅に減少し、その結果、微調整が大幅に高速化され、モデルの更新を保存するために必要なメモリが削減されます。
  • 量子化: オーディオまたはビデオのビットレートを下げてファイル サイズや遅延を減らすのと同様に、量子化によりモデル データ ポイントの表現に使用される精度が低下し (たとえば、16 ビット浮動小数点から 8 ビット整数に)、メモリ使用量が削減され、推論が高速化されます。 QLoRA 量子化と LoRA を組み合わせた技術です。
  • 直接優先最適化 (DPO): チャットモデルが通常使用するのは、 人間のフィードバックから学ぶ強化(RLHF) モデルの出力を人間の好みに合わせるため。 RLHF は強力ですが、複雑で不安定です。 DPO は、計算量が軽量で大幅にシンプルであると同時に、同様の利点を約束します。

3億から70億のパラメータ空間におけるオープンソースモデルの並行した進歩と並行して、これらの進化する技術は、スタートアップやアマチュアなどの小規模なプレーヤーに、以前は手の届かなかった高度なAI機能を提供することで、AIの状況のダイナミクスを変える可能性があります。

カスタマイズされたローカル モデルとデータ パイプライン

したがって、2024 年の企業は、「ビッグ AI」から再パッケージ化されたサービスのラッパーを構築するのではなく、オーダーメイドのモデル開発を通じて差別化を追求できるようになります。と 適切なデータと開発フレームワーク、既存のオープンソース AI モデルとツールは、カスタマー サポートの使用からサプライ チェーン管理、複雑なドキュメント分析に至るまで、ほぼすべての現実世界のシナリオに合わせて調整できます。

オープンソース モデルにより、組織は、法外に高価なインフラストラクチャ投資をすることなく、独自のデータに基づいてトレーニングされ、特定のニーズに合わせて微調整された強力なカスタム AI モデルを迅速に開発する機会が得られます。これは、事前トレーニングの基礎モデルによって高度に専門化された語彙や概念が学習されていない可能性がある、法律、医療、金融などの分野に特に当てはまります。

法律、金融、ヘルスケアも、小規模なハードウェアでローカルに実行できるほど小規模なモデルから恩恵を受けることができる業界の代表的な例です。 AI のトレーニング、推論、 検索拡張生成 (RAG) local は、独自のデータや機密の個人情報がクローズドソース モデルのトレーニングに使用されたり、第三者の手に渡ったりするリスクを回避します。また、LLM 自体にすべての知識を直接保存するのではなく、RAG を使用して関連情報にアクセスすると、モデルのサイズが削減され、速度がさらに向上し、コストが削減されます。

2024 年にモデルの競争条件が平準化され続ける中、業界最高の微調整を可能にする独自のデータ パイプラインによって競争上の優位性がますます促進されることになります。

より強力な仮想エージェント

より洗練された効率的なツールと 1 年分の市場フィードバックを自由に使えるようになったことで、企業は次のようなユースケースを拡大する準備ができています。 仮想エージェント 単なる単純さを超えて カスタマーエクスペリエンスチャットボット.

AI システムの速度が向上し、情報の新しいストリームと形式が組み込まれると、コミュニケーションや指示に従うだけでなく、タスクの自動化の可能性も広がります。 「2023 年は AI とチャットできる年でした。複数の企業が何かを立ち上げましたが、そのやりとりは常に、あなたが何かを入力すると、それがまた何かを入力するというものでした」とスタンフォード大学のノーヴィグ氏は言います。 「2024年には、 エージェントがあなたの代わりに作業を行う機能。予約をしたり、旅行を計画したり、他のサービスに接続したりできます。」

特にマルチモーダル AI は、仮想エージェントとのシームレスな対話の機会を大幅に増加させます。たとえば、ユーザーは単にボットにレシピを尋ねるのではなく、開いた冷蔵庫にカメラを向けて、入手可能な材料で作ることができるレシピをリクエストできます。 Be My Eyes は、目の見えない人や弱視の人をボランティアと結び付けて簡単な作業を手伝うモバイル アプリで、人間のボランティアを待つ代わりにユーザーがマルチモーダル AI を通じて周囲と直接対話できるようにする AI ツールを試験的に導入しています。

IBM watsonx™ Assistant を詳しく見る: ビジネスを強化するツールとのシームレスな統合を備えた市場をリードする会話型 AI →

規制、著作権、AI の倫理的懸念

マルチモーダル機能の向上と参入障壁の低下により、悪用への新たな扉が開かれます。ディープフェイク、プライバシー問題、偏見の永続、さらには CAPTCHA 保護手段の回避さえも、悪意のある者にとってますます容易になる可能性があります。 2024 年 2023 月、露骨な有名人のディープフェイクの波がソーシャル メディアを襲いました。 8 年 2022 月の調査によると、XNUMX 年の同時期と比較して、オンラインに投稿された音声ディープフェイクの数は XNUMX 倍に達していました。[VI]

規制環境のあいまいさにより、短期から中期的には採用、または少なくともより積極的な導入が遅れる可能性があります。新しいテクノロジーや慣行への大規模で取り返しのつかない投資には、今後数年間の新たな法律や政治的逆風の変化に伴って大幅な設備変更が必要になったり、場合によっては違法になったりする可能性があるリスクが内在しています。

2023 年 XNUMX 月、欧州連合 (EU) は 人工知能法に関する暫定協定。とりわけ、顔認識データベースを作成するための画像の無差別スクレイピング、差別的偏見の可能性のある生体認証分類システム、「社会的スコアリング」システム、および社会的または経済的操作のための AI の使用を禁止しています。また、安全性、基本的権利、法の支配を脅かす可能性があり、追加の監視の対象となる「高リスク」AI システムのカテゴリーを定義することも求めている。同様に、技術文書や体系的な敵対的テストを含む、同社が「汎用 AI (GPAI)」システムと呼ぶもの、つまり基礎モデルに対する透明性要件も設定しています。

しかし、ミストラルのような一部の主要企業はEUに居住しているが、画期的なAI開発の大部分はアメリカで行われており、民間部門におけるAIの実質的な立法には議会の行動が必要となるが、選挙の年にはそれが実現する可能性は低いかもしれない。 30月XNUMX日、バイデン政権は次の声明を発表した。 包括的な大統領令 連邦政府機関による AI テクノロジーの使用に関する 150 の要件を詳述。数カ月前に政権は確保した 著名な AI 開発者による自主的な取り組み 信頼と安全のために特定のガードレールを遵守すること。注目すべきことに、カリフォルニア州とコロラド州の両方が、人工知能に関する個人のデータプライバシー権に関する独自の法案を積極的に推進しています。

中国は正式なAI規制にさらに積極的に取り組んでおり、ソーシャルメディア上の推奨アルゴリズムによる価格差別を禁止し、AIが生成したコンテンツの明確なラベル表示を義務付けている。生成 AI に関する将来の規制では、LLM のトレーニングに使用されるトレーニング データと、モデルによってその後生成されるコンテンツが「真実かつ正確」でなければならないことを要求することを目指しており、専門家は LLM 出力を検閲する措置を示すために講じています。

一方、言語モデルから画像ジェネレーター、ビデオモデルに至るまで、コンテンツ生成に使用される AI モデルのトレーニングにおける著作権素材の役割については、依然として激しい論争が続いています。注目を集めた結果 によって起こされた訴訟 ニューヨーク·タイムズ紙 OpenAIに対して AI 法の行方に大きな影響を与える可能性があります。敵対的なツールなど & ホオズキどちらもシカゴ大学で開発されたものですが、クリエイターとモデル開発者の間で一種の軍拡競争となる可能性のある状況が生じています。

 IBM® watsonx.governance™ が責任ある透明性と説明可能な AI ワークフローをどのように加速するかを学ぶ →

シャドウ AI (および企業の AI ポリシー)

企業にとって、法的、規制的、経済的、または評判に影響を及ぼす可能性は、生成 AI ツールの人気が高まり、アクセスしやすくなったことでさらに悪化します。組織は、生成 AI に関して注意深く、一貫性があり、明確に表現された企業ポリシーを持っているだけでなく、次のことに注意する必要があります。 シャドウ AI: 従業員による職場での AI の「非公式」個人的な使用。

「シャドウ IT」または「BYOAI」とも呼ばれるシャドウ AI は、迅速な解決策を求めるせっかちな従業員(または、慎重な会社方針が許すよりも早く新技術を探索したいだけ)が、承認や監視のために IT を経由せずに職場に生成 AI を導入するときに発生します。 。多くの消費者向けサービスでは、技術者ではない個人でも生成 AI ツールを即席で使用できるようになっており、一部は無料です。 Ernst & Young のある調査では、回答者の 90% が仕事で AI を使用していると回答しています。[VII]

その進取の気性は、単体では素晴らしいものですが、熱心な従業員には、セキュリティ、プライバシー、コンプライアンスに関する関連情報や視点が欠けている可能性があります。これにより、企業は多大なリスクにさらされる可能性があります。たとえば、従業員がユーザー入力を継続的にトレーニングする公開 AI モデルに無意識のうちに企業秘密を入力したり、著作権で保護された素材を使用してコンテンツ生成用の独自モデルをトレーニングしたりして、会社が法的措置にさらされる可能性があります。

現在進行中の多くの開発と同様、これは、生成型 AI の危険性がその機能に応じてほぼ直線的に増大することを浮き彫りにしています。大きな力には大きな責任が伴います。

今後

人工知能における極めて重要な年を迎えるにあたり、可能性を最大化し、リスクを最小限に抑え、責任を持って生成型 AI の導入を拡大するには、新たなトレンドを理解し、それに適応することが不可欠です。

生成 AI を watsonx™ と連携させる →

AI トレンドの先を行くために IBM がどのように支援できるかをご覧ください →


[I] 「ガートナーは、新興テクノロジーに対する 2023 年のハイプ サイクルにおける期待の高まりのピークに生成 AI を位置付けています。」 ガートナー、16 年 2023 月 XNUMX 日

[II] 「エンタープライズ第 1 四半期レポートにおけるデロイトの生成 AI の現状」 デロイト、2024 年 XNUMX 月

[III] 「2024 年の AI に期待されること」 スタンフォード大学、8 年 2023 月 XNUMX 日

[IV] 「Q&A: 大学の研究者が ChatGPT が使用するエネルギー量について語る」 ワシントン大学、27 年 2023 月 XNUMX 日

[V] 「企業における生成 AI」 オライリー、28 年 2023 月 XNUMX 日

[VI] 「ディープフェイク: アメリカの 2024 年の選挙は AI ブームと一致します。」 ロイター、30 年 2023 月 XNUMX 日

[VII] 「組織は不安を煽る AI 使用の急増をどのように阻止できるか」 アーンスト&ヤング誌、2023 年 XNUMX 月

この記事は役に立ちましたか?

有りいいえ


人工知能の詳細




優れた従業員エクスペリエンスの創出

4 分読みます従業員の私生活と職業生活の境界線がこれまで以上に曖昧になる中、従業員は自分自身を完全に考慮した、より柔軟で共感に満ちた職場を期待しています。従業員の期待のこの変化は、急速なテクノロジーの進歩、スキルギャップの拡大、予測不可能な社会経済的問題といった困難な環境の中で起こっています。さらに言えば、従業員エクスペリエンスを定量化するのが難しく、組織を変えるのが難しいため、人事の本質そのものが最適化に抵抗します。こうした課題にもかかわらず、…




生成 AI が資産管理を最適化できる 6 つの方法

3 分読みます組織の規模に関係なく、すべての資産管理者は、保守計画を合理化し、資産または機器の信頼性を高め、ワークフローを最適化して品質と生産性を向上させるという同様の任務に直面しています。 IBM Institute for Business Value が最高サプライチェーン責任者を対象に行った最近の調査では、回答者のほぼ半数が、課題に対応するために新しいテクノロジーを採用したと述べています。従来の AI と組み合わせた生成人工知能 (AI) 基盤モデルの力により、さらに多くの支援が実現する予定です。




レコーディング・アカデミーが IBM watsonx を使用してグラミー賞® でのファン体験を強化する方法

3 分読みますレコーディング アカデミー® は、グラミー賞を通じて、レコーディング芸術と科学の卓越性を評価し、音楽が私たちの文化の忘れられない部分であり続けることを目指しています。世界のトップ・レコーディング・スターが第66回グラミー賞のレッドカーペットを歩くとき、IBMは再びそこに参加します。今年、グラミー賞が直面するビジネス上の課題は、他の象徴的な文化スポーツやエンターテイメント イベントの課題と同様でした。今日の高度に細分化されたメディア環境において、文化的影響を生み出すことは、魅力的なコンテンツを推進することを意味します…




あらゆる人のための AI アシスタント: watsonx Orchestrate は生成 AI と自動化を組み合わせて生産性を向上します

3 分読みます従業員が、時間のかかるタスクを簡単に委任し、簡単な問い合わせを通じて情報にシームレスにアクセスし、単一の合理化されたアプリケーション内で複雑なプロジェクトに取り組むことができるとしたらどうでしょうか?顧客がインテリジェントでフレンドリーな仮想エージェントにアクセスして回答を提供し、セルフサービス エクスペリエンスを 24 時間有効にできるとしたらどうなるでしょうか?この技術革命は、生成 AI を活用した自動化の革新的な機能のおかげで可能になりました。今日の AI アシスタント テクノロジの進歩により、企業は前例のないスピードでビジネスの成果を達成し、…

IBM ニュースレター

最新の思想的リーダーシップと新たなトレンドに関する洞察を提供するニュースレターとトピックの最新情報を入手してください。

今すぐ会員登録します。

その他のニュースレター

スポット画像

最新のインテリジェンス

スポット画像