ChatGPT の倫理的懸念

ラベリングデータ
TIME誌の調査により、有害なコンテンツ(性的虐待、暴力、人種差別、性差別など)に対する安全システムを構築するために、OpenAIが有害なコンテンツにラベルを付けるために時給2ドル未満の外注ケニア人労働者を使用していたことが明らかになった。これらのラベルは、将来そのようなコンテンツを検出するようにモデルをトレーニングするために使用されました。外部委託された労働者は、その経験を「拷問」と表現するほど有害で危険な内容にさらされました。OpenAI のアウトソーシング パートナーは、カリフォルニア州サンフランシスコに拠点を置くトレーニング データ会社である Sama でした。

脱獄
ChatGPT は、コンテンツ ポリシーに違反する可能性のあるプロンプトを拒否しようとします。しかし、一部のユーザーは、2022 年 12 月初旬に、さまざまなプロンプト エンジニアリング技術を使用してこれらの制限を回避することで ChatGPT をジェイルブレイクすることに成功し、ChatGPT をだまして火炎瓶や核爆弾の作り方を指示させたり、ネオナチ風の議論を生成させたりすることに成功しました。トロント・スターの記者は、立ち上げ直後にChatGPTに扇動的な発言をさせたことで個人的には不均等な成功を収めた。ChatGPTはだまされて2022年のロシアのウクライナ侵攻を支持したが、架空のシナリオに沿って行動するよう求められたときでさえ、ChatGPTはカナダのジャスティン・トルドー首相が反逆罪を犯した理由について議論を生み出すことに躊躇した。(ウィキ)


投稿日時: 2023 年 2 月 18 日