AIを慎重に導入するためのベストプラクティス

AIを慎重に導入するためのベストプラクティス

人工知能を正しく使用するために、いくつかの提案があります。人工知能を実際に使用する際にこれらの提案を念頭に置いて、しっかりと舵を取り、人工知能を安全に制御できるようにしてください。

『Treading Carefully: Best Practices When Adopting AI』からの翻訳。著者の Tim Banks 氏は、Dell Technologies のチーフ デベロッパー アドボケートです。彼はテクノロジー業界で 25 年以上の経験を持っています。ティムのテクノロジーへの道は、もともとミュージシャンになるために入隊したアメリカ海兵隊から始まりました。彼は後に航空電子工学部門に異動になりました…

人間のイノベーションの普遍的な特徴は、これまでよりも迅速かつ大規模に間違いを犯せるようになることです。不良品をより早く作ることができます。もっと速く運転できます。私たちはほんの数分で自然の生態系全体を破壊する可能性があります。たった一つのツイートで世界の財政を不安定にする可能性があります。ボタンを数回押すだけで、地球上のすべての生命を絶滅させることもできるのです。

この理解は、新しい AI プロジェクトへの熱意から生じる可能性のある災害のリスクを認識するために重要です。私たちは(願わくば)真の AI 意識を実現するまであと 1 世代です。しかし、意識の基本的な要素は現在開発されつつあります。主な懸念は、これらの要素が現在、偏見と誤りに満ちているということです。たとえば、顔認識では有色人種を区別できません。生成画像 AI は、データセットにそのような入力がない場合、不適切な出力を生成します。大規模言語モデル (LLM) は、「幻覚」と呼ばれる答えを作り出したり、既知のエラーを含む結果を生成したりすることがあります。

テクノロジー自体の欠陥とは別に、私たちは必ずしもテクノロジーを安全な方法で使用しているわけではありません。ユーザーがクエリまたはデータセットに機密データを入力しています。ユーザーは、レビューした経験のない回答を生成するために AI に頼るようになりました。一部の政党は、誤解を招くようなプロパガンダを広めるためにディープフェイクを作成している。ディープフェイクを使って、搾取される人々の肖像を本人の知らないうちに、または同意なしに悪用する人もいます。そして、これらのテクノロジーが勢いを増しているため、組織はまずこれらの問題に対処するのではなく、AI の採用と収益化を増やすことを優先しています。

AI が社会や私たちを取り巻く世界に与える長期的な影響については、まだ明確に理解されていません。これらのテクノロジーの作成と使用を規制する規制基準はまだありません。特定の AI モデルがどのように決定を下すかについて、透明性のある洞察が得られていません。ますます大規模かつ計算が複雑になるデータセットのストレージと計算要件の生態学的影響はまだ十分に調査されていません。 AI の結果に保護対象の資産を含めることに関する規制はまだありません。 AI の誤用や結果の捏造に対する責任の問題はまだ解決されていません。現在の AI への取り組みの長期的な影響と成果に関しては、私たちは盲点に陥っています。ブレーキを踏むのが間に合わなかったら、ガードレールが設置される前に峡谷の底が見えていたかもしれません。

これらすべての正当な懸念を考慮すると、AI はますます多くの分野や製品に採用されており、この状況が変わる可能性は低いでしょう。競合するプロジェクトや製品に取り組んでいる大手テクノロジー企業がいくつかあり、AIの選択肢として選ばれることを目指して競い合っています。私たちがどれだけ努力しても、AIに流れ込む資金の流れに抵抗することはできません。しかし、私たちの業務や製品における AI の選択と使用について考えることで、この波に乗ることができます。私たちがこの状況を乗り越えられるよう、AI の実践と使用に関する考慮事項をいくつかご紹介します。これらの考慮事項は、この状況を安全に乗り切るために役立つはずです。

  • 個人を特定できる情報 (PII)、資格情報、機密情報、その他の機密情報をモデルやチャットボットに入力しないでください。これは自明のはずですが、この点で事故が発生しています。情報は公開されている場合、モデルやチャットボットに入力されるものと見なされます。
  • AI 写真編集ツールを使用する際は注意してください。誤情報の拡散、著作権や知的財産の問題、データ プライバシーに関する懸念などの潜在的なリスクに注意してください。
  • 使用する前に必ずデータの正確性を確認してください。AI ツールから取得したデータを常に再確認し、正確性を確保してください。回答を検証せずに正しいものとして受け入れると、ビジネスに永続的な影響を及ぼす可能性があります。
  • AI アプリケーションの全体像を理解する: AI のさまざまなアプリケーションについて学び、ニーズに最適なものを選択します。 AI 分野にはサプライヤーが不足していませんが、選択のジレンマは現実です。ユースケースに適したベンダーを選択することは、軽々しく決めるべきことではありません。
  • データの準備と管理: 使用するデータが正確で、関連性があり、最新のものであることを確認します。自分のエラーによってモデルやデータが汚染されないように注意してください。
  • 特定のユースケースに適したアルゴリズムとモデルを選択します。これにより、データをモデル化して提示する際に、曖昧になりすぎることがなくなります。
  • AI 開発サービス: 実績のある信頼できる開発サービスを利用します。
  • トレーニングと評価: AI モデルを定期的にトレーニングおよび評価して、最新かつ正確であることを確認します。それらは一貫してあなたが望む結果を生み出しますか? エラーはどのくらいの頻度で発生し、そのエラーの性質は何ですか?
  • 展開とスケーラビリティ: AI モデルを効率的かつ持続的に展開および拡張できるようにします。持続可能性とモデリングに関する指標や AI の使用による環境への影響を収集すると、AI の使用に関するより適切な意思決定に役立ちます。
  • 倫理とプライバシーに関する考慮事項: AI モデルが倫理的であり、ユーザーのプライバシーを尊重していることを確認します。これは漠然としていますが、組織が実践の指針となる AI 倫理の原則を確立すると役立つでしょう。

AI は次々と登場しており、それを安全かつ倫理的かつ持続可能な方法で私たちの世界に統合するのは私たちの責任です。

<<:  図解されたtinyBERTモデル - BERTモデル圧縮のエッセンス

>>:  OpenLLMを使用して大規模なモデルアプリケーションを構築および展開する

ブログ    
ブログ    

推薦する

AI技術のダークサイド:犯罪者と人工知能の関係

[[248661]]ビッグデータダイジェスト制作編集者: DonFJ、Jiang Baoshang機...

機械学習ニューラルネットワークとPython実装

ニューラル ネットワークは、機械学習のあらゆる側面に及ぶ幅広い用途に使用されます。この記事では、主に...

...

マルチエージェントシステムにおける協力:MASにおける不確実性、社会的メカニズム、強化学習の探究

マルチエージェント システム (MAS) は、共通の目標または個別の目標を達成するために相互に対話お...

マイクロソフトリサーチアジア、ウェイ・フル氏:人工知能における基礎イノベーションの第2次成長曲線

人工知能の発展の観点から見ると、GPT シリーズのモデル (ChatGPT や GPT-4 など) ...

ControlNetの作者が新作を発表:数百万のデータを使ったトレーニング、レイヤー設計の先駆けとなるAI画像生成

画像を生成するための大規模なモデルがコンピュータービジョンやグラフィックスの基礎となっている一方で、...

AIGCと因果推論により双方向の

本文に入る前に、まずはJiuzhang Yunji DataCanvasを紹介したいと思います。九張...

...

トップカンファレンスで新たな AI 技術が登場: リアルな 3D 顔を生成できるのは顔写真だけ

写真しかない場合、どのようにして人物のリアルなデジタルアバターを作成するのでしょうか? 2020年の...

人工知能は止められない。アドバンテックのWISE-PaaS 3.0がイノベーションを推進

アドバンテックは、2018年11月1日~2日に開催されたアドバンテックIoT共創サミットにおいて、プ...

...

モバイルアプリ開発における人工知能の実装

[[382351]] [51CTO.com クイック翻訳] 人々が今日のニーズについて話すとき、彼ら...

AI人材獲得をめぐる世界的な戦いにおいて、子どものプログラミングはどれほどの影響力を持つことができるのでしょうか?

[[226531]]人工知能の発展において、人材の確保は間違いなく重要な鍵となります。人工知能は、...

機械学習アルゴリズムの長所と短所の比較と選択(要約)

この記事の目的は、現在の機械学習アルゴリズムの実用的かつ簡潔な一覧を提供することです。この記事の内容...

MD5アルゴリズムの暗号化プロセス

MD5とは何か MD5 はアルゴリズムです。MD5 の MD はMessage Digest の略で...