海外メディアの報道によると、マイクロソフトは10月20日、アプリケーションやサービス内の有害な人工知能やユーザー生成コンテンツをユーザーが検出し、フィルタリングできるようにする新サービス「Azure AI Content Safety」の正式リリースを発表した。 このサービスにはテキストと画像の検出が含まれており、冒涜的な言葉、流血、暴力、特定の種類の発言など、Microsoft が「不快、危険、または歓迎されない」コンテンツと呼ぶものを識別します。 「コンテンツの安全性に重点を置くことで、より安全なデジタル環境を構築し、AI の責任ある使用を促進して個人と社会全体の幸福を守ることができます」と、Azure Anomaly Detector のプロダクト マネージャーである Louise Han 氏は述べています。 Azure AI コンテンツ セーフティは、幅広いコンテンツ カテゴリ、言語、脅威に対応し、テキストとビジュアル コンテンツを管理できます。また、人工知能アルゴリズムを使用して視覚コンテンツをスキャン、分析、管理する画像機能も提供しており、Microsoft が言うところの包括的な 360 度セキュリティ アプローチを実現します。 このサービスには、複数の言語にわたるコンテンツ モデレーション機能も搭載されており、特定のコンテンツの重大度を 0 から 7 のスケールで示す重大度メトリックが使用されます。 0~1 と評価されたコンテンツはすべての視聴者にとって安全で適切であると見なされますが、偏見、判断、または差別を表現するコンテンツは 2~3 と評価されます。 中程度の深刻度のコンテンツは 4 ~ 5 と評価され、攻撃的、侮辱的、嘲笑的、脅迫的な言葉、またはアイデンティティ グループに対する明白な攻撃が含まれます。一方、有害で有害な行動を明示的に促進するもの、またはアイデンティティ グループに対する極端な形態の有害活動を支持または称賛するものが含まれる重大度の高いコンテンツは 6 ~ 7 と評価されます。 さらに、Azure AI コンテンツ セーフティは、複数のカテゴリ フィルタリングを使用して、いくつかの重要な領域で有害なコンテンツを識別および分類します。 |
<<: DeepMind: ビッグモデルのもう一つの大きな欠陥は、正しい答えが事前にわかっていなければ推論を自己修正できないことだ。
人工知能や自動化などの破壊的技術の急速な発展により、現代の企業は変化しています。これらのテクノロジー...
ChatGPT が一般公開されて以来、LLM (大規模言語モデル)、RAG (検索拡張生成)、ベクタ...
生成的 人工知能 それがもたらす熱狂は継続し、すべての人の思考を刺激し続けます。今日の「百モデル戦争...
過去数か月間、数学者のテレンス・タオ氏は、ChatGPT を使用して数学の問題を解くのに何度も試み、...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
2017年と比べると、最近の人工知能分野のニュースは人々を怒らせることはほとんどないようだ。おそら...
今日の物語の主人公は、サンジーヴ・アローラとアニルド・ゴヤルという二人の科学者です。アローラ氏はプリ...
[[383265]] 「ワイルド・スピード8」を見たことがある友人なら、ハッカーが1,000台の車...
[[198836]] CCAI 2017に参加した後、専門家の講演を聞いて多くの恩恵を受けました。私...
ERNIE は、Baidu のディープラーニング プラットフォーム PaddlePaddle 上に構...
ドイツ特派員 青木「昨年、北米のロボット受注の大半は初めて自動車工場で受注されなかった」ロイター通信...