1月5日、有名なSF作家アイザック・アシモフが「ロボット工学三原則」を提唱しました。 Googleは現在、これらの基本ルールを使用して「ロボット憲章」を作成し、同社の最新の機械システムが人間に危害を及ぼす可能性を防いでいる。 Google は、部屋の片付けやおいしい食事の調理など、簡単な指示に基づいて複雑なタスクを完了できるロボットの開発に注力しています。同社のDeepMindチームは、この目的のために、対応するセキュリティルールを策定しました。 ロボットは、さまざまな環境にある物体や道具を認識し、その使い方を学習する必要があるため、人間にとっては簡単な日常的な作業も実行するのが困難です。ディープマインドチームは木曜日に公開したブログ記事で、マシンビジョンが物体を認識し、カウンタートップを見てスポンジで拭くなどの作業を実行するために「基礎的な」計算モデルをどのように使用したかを説明した。 この作業により、Google の AutoRT システムの開発が促進されました。このシステムは、さまざまなオフィスビル環境で 20 台以上のロボットを同時に調整し、安全コマンドを発行できます。このプロセスは複雑ですが、潜在的なセキュリティリスクをもたらす可能性もあります。たとえば、ロボットが肉切り包丁を無謀に振り回したり、沸騰したお湯の入った鍋を人の近くに飛び散らしたりする可能性があります。そこで、マシンの安全な動作を確保するために、Google DeepMind チームは SF 作家のアシモフからインスピレーションを得ました。 その結果、同社の最新のロボットシステムが従う「ロボット憲章」が生まれました。 「これらのルールは、アイザック・アシモフの『ロボット工学三原則』に一部ヒントを得たものだ。第一に、ロボットは『人間を傷つけてはならない』というものだ」とグーグルはブログ投稿で述べた。「詳細な安全ルールでは、ロボットは人間、動物、鋭利な物体、電気製品との接触を伴う作業を試みてはならないと規定されている」 皮肉なことに、ロボット工学の 3 つの原則には欠陥があります。実際には、アシモフはそれらをストーリーを進めるための一種のプロット設定として使用し、原則の曖昧さが依然として対立や陰謀につながる可能性があることを示しました。たとえば、アシモフは、人類の進歩のために機械が人間を犠牲にする物語を書きました。 Google DeepMind チームは、ロボット憲章は安全性の層に過ぎないと指摘しています。さらに、DeepMind チームは、ロボットをシャットダウンできるボタンなど、最新のロボット システム向けに実用的な安全対策を複数層設計しました。 「例えば、協働ロボットは関節にかかる力が一定の閾値を超えると自動的に機能を停止し、稼働中のロボットはすべて人間の監督者の視界内に保たれ、ロボットを即座にシャットダウンできる物理的なスイッチを備えている」とグーグルは述べた。 |
>>: Pytorch の核心であるオプティマイザを突破! !
数字間の隠れた関係は、証明が必要な場合に数学的推測を確認できるラマヌジャンマシンと呼ばれる新しいタイ...
[[347377]] Pythonアルゴリズムの一般的なテクニックと組み込みライブラリ近年、Pyth...
[[403856]]著者は最近、フロントエンドの視覚化と構築の技術を研究しています。最近、設計図に基...
[[422011]] 2013年、バハマで仕事をしていたとき、私は現在ドローンとして知られているもの...
複数のターゲットを追跡するには、次の 2 つの方法があります。オプション1初期化フレームの追跡に基づ...
人工知能 (AI) は間違いなく 2010 年代のテクノロジーのテーマであり、新しい 10 年が始ま...
人工知能は新たな変化を先導しています。近年、人工知能はテクノロジー業界から始まり、急速に生活の各分野...
Google、スタンフォード大学、カリフォルニア大学バークレー校、OpenAI の研究者が論文「AI...
人工知能技術の台頭に伴い、AIの問題点が徐々に明らかになってきました。 AI による決定は、依然とし...
1. 技術的背景CTR(Click-Through-Rate)とは、クリック率のことで、インターネッ...
2016年7月12日から9月5日まで、北京TalkingData Technology Co., ...
アシュトーシュ・グプタ翻訳者: ブガッティ企画丨孫淑娥亮策要するに:人工知能 (AI) プロジェクト...