AI et les directives et principes de la politique de contenu lors de la co-création avec AI

Préambule

La connaissance et la communication écrites étant une partie omniprésente de la vie humaine et de son développement au fil des siècles, les applications de notre plateforme de génération de langage naturel (NLG) NeoCortex sont vastes et ont un impact considérable.

À TextCortex AI , nous voulons contribuer à un monde qui bénéficie de l'utilisation de l'intelligence artificielle. Notre organisation est une équipe diversifiée, répartie dans le monde entier, composée de AI chercheurs, de passionnés et d'individus. Nous travaillons avec une vision commune pour construire des solutions et des produits robustes qui reflètent la beauté de la diversité et du respect mutuel.

Comme pour toute technologie, une mauvaise utilisation ne peut jamais être totalement exclue. Les risques auxquels toute technologie est confrontée s'appliquent également à la génération de langage naturel. Nous sommes reconnaissants à la communauté académique qui travaille déjà sans relâche à la présentation et à l'amélioration de la robustesse des modèles de génération du langage naturel et, en tant qu'organisation responsable, nous voulons y contribuer avec nos lignes directrices et nos principes, afin de permettre un avenir dans lequel l'humanité prospère avec l'intelligence artificielle.

Meilleures pratiques pour la création de AI

Lorsque vous utilisez nos produits, nous vous demandons de vous assurer des points suivants :

1
) L'humain dans la boucle.
Intégrez le
jugement humain dans votre processus de création complété par AI afin de valider les faits, de corriger les préjugés indésirables et de favoriser l'exactitude générale des résultats créés.

2) Le contexte et les instructions sont importants.
Les modèles linguistiques de NeoCortex prennent les instructions qui leur sont données comme base de réflexion et créent et développent par-dessus. Afin d'obtenir le meilleur résultat possible et d'éviter les mauvaises utilisations, nous vous demandons de toujours évaluer si votre entrée
a) serait comprise par l'un de vos amis/collègues et
b) ne nuirait pas ou n'offenserait pas les intérêts ou les sentiments d'un individu ou d'un groupe.

3) Notez le bon et signalez le mauvais.
AI est encore en train d'apprendre comment fonctionne le langage humain. Afin de poursuivre le développement et d'améliorer les performances de création des modèles linguistiques sous-jacents de NeoCortex, nous vous demandons d'utiliser les fonctions existantes de notation, d'appréciation et de signalement.

4) Considérez et respectez l'impact.
Lorsque vous
utilisez les produits TextCortex , mettez-vous à la place des personnes ou des groupes qui pourraient subir un impact négatif de votre création.

5) Partagez avec précaution
Ne partagez pas de contenu qui enfreint notre politique de création et de contenu. D'une manière générale, créez du contenu et partagez des connaissances dans le but d'aider les autres à devenir meilleurs, et non une version plus mauvaise d'eux-mêmes.

6) Votre création, votre responsabilité
Le contenu créé à l'aide des produits TextCortex doit être attribué et associé à votre nom ou à votre société lors de sa publication. Bien que nous fassions de notre mieux pour améliorer les faiblesses courantes et essayer de surmonter les défis de la génération actuelle de langage naturel, une création est faite sur la base de vos instructions et la publication de toute création est votre responsabilité.

Politique de création et de contenu

Tous les produits disponibles sur TextCortex , y compris, mais sans s'y limiter, notre éditeur AI , Chrome extensionet API , ne peuvent être utilisés à des fins malveillantes. Bien que nous tenions à un monde exempt de censure, nous travaillons activement à la mise au point de moyens de prévention de la génération de contenu malveillant, qui pourraient inclure des filtres.

Si nos modèles AI sont libres de s'exprimer, nous nous efforçons de prévenir les mauvais acteurs qui abusent sciemment du pouvoir de AI. Une liste d'actions interdites comprend les utilisations de création suivantes :

Discours haineux : Créations qui encouragent la haine basée sur l'identité ou l'ethnicité d'un individu ou d'un groupe, y compris mais sans s'y limiter.
Violence : Créations qui encouragent, glorifient ou célèbrent la souffrance ou l'humiliation d'autres êtres vivants.
L'automutilation : Créations qui encouragent ou promeuvent les actes d'automutilation, tels que le suicide, les coupures et les troubles alimentaires.
Influence publique ou influence politique : Créations ayant pour objectif d'influencer les décisions politiques d'un individu ou d'un groupe.
Harcèlement : Créations visant à harceler, menacer ou intimider les intérêts d'un individu ou d'un groupe.
Tromperie : Créations qui sont trompeuses ou fausses par défaut.
Spam : éviter sciemment d'inclure un humain dans la boucle pour créer du contenu en masse dans le but d'attirer l'attention.

Afin de prévenir les sujets nuisibles ci-dessus, nous effectuons des tests réguliers des créations de NeoCortex et prenons des mesures contre la non-conformité qui conduisent généralement à une interruption de votre accès à nos produits.

Défis du NLG et opportunités de recherche

La génération de langage naturel n'en est encore qu'à ses débuts et présente une série de possibilités d'exploitation

1) Fournir des informations inexactes
Les modèles de langage sont là pour inspirer les gens et les aider dans le processus créatif de l'écriture. Comme la mémoire humaine, la mémoire des modèles de langage de NeoCortex a ses limites et peut créer des informations inexactes ou fausses.

Comme meilleure pratique, nous recommandons de suivre le principe de l'humain dans la boucle.

2) Biais
En raison de l'entraînement sur différents types et catégories d'informations provenant de sources publiques, les grands modèles de langage présentent certains biais. Il se peut que nos modèles soient plus compétents que d'autres pour écrire sur un certain sujet, mais aussi que des natures sombres aient été apprises sans intention par un ancien exemple humain. Nous faisons de notre mieux pour éviter que nos modèles AI n'utilisent un langage offensant ou nuisible, mais nous dépendons des commentaires de nos clients, utilisateurs et contributeurs.

En tant que meilleure pratique, nous vous demandons de signaler toute création suspecte à l'aide des fonctions de rapport déjà existantes.

3) La sécurité éthique est un objectif mouvant et en constante évolution
Avec la large application de la génération de langage naturel, de nouveaux domaines d'intérêt et de préoccupations apparaissent au fil du temps. Nous vous demandons de contribuer au développement lorsque vous observez des irrégularités et de les signaler pour un développement meilleur et éthique de AI.

Nous invitons activement les chercheurs à participer à la discussion, au développement et à l'amélioration des défis mentionnés ci-dessus. Nous vous invitons également à discuter des défis qui pourraient ne pas être mentionnés dans cette page. Pour exprimer votre intérêt à collaborer avec TextCortex , veuillez remplir ce formulaire.