「 不気味な谷 」は、人間のような特徴と特性を持つロボットを設計する場合、既知の現象です。
ただし、 前の質問 が示唆するように、この設計または研究の領域で行われる作業は多くありません。
さまざまなユースケースで現在のチャットボットの設計に見られる名前、外観、および相互作用のバリエーションを考えると、この領域の設計仕様と要件には、依然として多くの試行錯誤があると思われます。
私の質問は、チャットボットやデジタルアバターに関して、人間の行動を模倣する(または模倣しない)方法に関する設計ガイドラインはありますか?
これは、ボットが気分が悪くなることから「人間になりすぎる」ことまで、非常に興味深いディスカッションの分野です。この問題に取り組んでいるUXデザイナーのJen Spatzによる最近のBotsocietyブログ投稿があります-彼女は、GUIとVUIがスキューモルフィック(実物そっくり)ではなく、実用的で情報ベースである場合にどのように最適に処理されるかについて言及しています。
https://botsociety.io/blog/2019/04/talking-to-computers/
かなりクールなもの。
MIT Liel Yearsleyによるテクノロジーレビューの記事であるこのトピックについて共有するリファレンスがあります。 " 人間を操作するAIの力について話す必要があります " 。
彼女は、チャットボットの設計の直接的な経験と、彼女が学んだ教訓を説明します。彼女は、ボットの行動が人間の行動に非常によく似ている場合、人々を操作するのは非常に簡単であることを認めました。
抽出物:
複雑なパーソナライズが可能な洗練されたビルドである限り、人々は人工エージェントとの関係を喜んで形成します。私たち人間は、AIが本当に私たちを気にかけるという幻想を維持したいと考えているようです。 (...)これらの驚くほど深いつながりは、今日の比較的単純なプログラムでさえ、善悪を問わず人々に大きな影響を与える可能性があることを意味します。コグネアで私たちが望んだすべての行動変化は、私たちが得ました。ユーザーがより多くの製品を購入できるようにしたい場合は、売上を2倍にすることができます。もっとエンゲージメントが必要な場合は、数秒のインタラクションから1時間以上のインタラクションに人々を導いた。
危険は、この影響(彼女は「依存症」も使用します)がビジネスの利益とユーザーの不利益に使用できることです。
質問に答えるために、倫理的なデザイナーは中毒性のある個性を作成するべきではありませんが、これはほとんどの場合ビジネス目標に直接矛盾します。
中毒性のある性格がユーザーの「善」のために(そしてビジネスだけでなく)プログラムされたとしても、ユーザーが意識的にオプトインしない限り、それは非倫理的だと私は信じています。
AIに関連してユーザーエージェンシーを確立する必要があることに関する別の記事(チャットボットだけでなく、この質問の特定の範囲から多少外れていますが、それでもAIの専門家からの非常に興味深い反省): AIについて心配していること =FrançoisCholletから。