AI と共創する際のコンテンツポリシーガイドラインと原則。AI

前文

文字による知識やコミュニケーションは、人間の生活や何世紀にもわたる発展の中で遍在しているため、私たちのNeoCortex自然言語生成(NLG)プラットフォームの応用範囲は広く、インパクトがあります。

TextCortex AI では、人工知能の使用から恩恵を受ける世界に貢献したいと考えます。私たちの組織は、AI 研究者、愛好家、個人からなる、世界に分散した多様なチームです。多様性と相互尊重の美を反映した堅牢なソリューションと製品を構築するために、共通のビジョンを持って働いています。

どんな技術でもそうですが、誤用は完全に排除することはできません。どんな技術でも直面するリスクは同じで、自然言語生成にも当てはまります。私たちは、自然言語生成モデルの堅牢性を示し、改善するために、すでに精力的に活動している学術コミュニティに感謝しています。責任ある組織として、私たちのガイドラインと原則で貢献し、人類が人工知能とともに繁栄する未来を可能にしたいと考えています。
‍。

AI 作成のベストプラクティス



1) Human-in-the-Loop.
AI -補完された創造プロセスにおいて、事実を検証し、不要なバイアスを修正し、創造された結果の一般的な正しさを促進するために、人間の判断を含める。

2) Context and instructions matter.
NeoCortex言語モデルは、指示されたことを思考ベースとして、その上で創造し拡張します。最良の結果を得るため、また誤用を防ぐため、
a) あなたの友人や同僚の一人に理解されるかどうか、
b) 個人またはグループの利益や感情を傷つけたり不快にしたりしないかどうかを常に評価してください。

3) 良いものを評価し、悪いものを報告する。
AI 人間の言語の働きをまだ学んでいるところである。NeoCortex の基礎となる言語モデルの作成性能をさらに開発し、向上させるために、既存の評価、いいね、報告機能を活用するようお願いします。

4) 影響を考慮し尊重する
TextCortex 製品を使用する際には、あなたの作成によって悪影響を受ける可能性のある個人またはグループの立場に立ってください。

5) 注意して共有する
弊社の作成およびコンテンツポリシーに違反するコンテンツを共有しないでください。

6) あなたの創造、あなたの責任
TextCortex 製品の助けを借りて作成したコンテンツは、リリース時にあなたの名前またはあなたの会社で帰属させる必要があります。私たちは、一般的な弱点を改善し、今日の自然言語生成の課題を克服するために最善を尽くしますが、創造物はあなたの指示の上に作られ、すべての創造物を公開することはあなたの責任です。
‍。

制作・コンテンツポリシー

AI editorを含むがこれに限定されない、利用可能なすべてのTextCortex 製品。 Chrome extensionまた、API 、悪意を持って使用することを禁止しています。私たちは検閲のない世界を大切にしていますが、悪意のあるコンテンツの生成をどのように防ぐことができるかを積極的に開発しており、これにはフィルターが含まれるかもしれません。

AI のモデルが自由に自己表現できる一方で、私たちの関心は、故意にAI の力を乱用する悪意ある行為者を防ぐことにあります。

ヘイトスピーチ
暴力
↪Cf200↩ 自傷行為:他の生き物の苦痛や屈辱を促進、美化、または賞賛する創作物
Ȁ公共的影響力または政治的影響力:自殺、切り傷、摂食障害などの自傷行為を奨励または促進する創作物。
Ȁハラスメント個人または団体の政治的意思決定に影響を与えることを目的とした創作物。
↪Cf200↩ハラスメント:個人または集団の利益に対する嫌がらせ、脅迫、いじめを意図した創作物
Ȁスパム強制的に注目を集めるために、ループ内に人間を含めることを故意に避け、コンテンツを大量に作成すること。

上記の有害なトピックを防ぐために、NeoCortexが行った創作について定期的にテストを行い、通常は当社製品へのアクセスを中止することになる非遵守に対する措置を取っています。

NLGの課題と研究の可能性

自然言語生成はまだ発展途上であり、利用可能な範囲があります

1)不正確な情報の提供
言語モデルは、人を鼓舞し、文章を書くという創造的なプロセスを支援するために存在します。人間の記憶と同様に、NeoCortexの言語モデルの記憶にも限界があり、不正確な情報や事実と異なる情報を作成する可能性があります。

ベストプラクティスとして、私たちはヒューマン・イン・ザ・ループの原則に従うことを推奨します。

2) 偏り
公開されているソースからさまざまな種類やカテゴリーの情報を使ってトレーニングを行うため、大規模な言語モデルには特定の偏りがあります。これは、私たちのモデルが、あるトピックについて他よりうまく書くことに長けていることを含むかもしれませんが、また、意図せず、以前の人間の例によって学習された暗い性質も含まれます。私たちは、AI 、攻撃的な言葉や有害な言葉のバイアスを取り除くよう最善を尽くしますが、顧客、ユーザー、貢献者からのフィードバックに依存しています。



3) 倫理的安全性は移動する、そして発展し続ける目標
自然言語生成の幅広い応用に伴い、新しい関心と懸念の領域が時とともに出現しています。AI

上記のような課題の議論、開発、改善に参加する研究者を積極的に募集しています。また、このページで紹介されていないような課題についても、ぜひご相談ください。TextCortex とのコラボレーションにご興味をお持ちの方は、こちらのフォームに必要事項をご記入ください。