AI Linee guida e principi della Politica dei Contenuti quando si co-crea con AI

Preambolo

Poiché la conoscenza e la comunicazione scritta sono una parte onnipresente della vita umana e del suo sviluppo nel corso dei secoli, le applicazioni della nostra piattaforma NeoCortex per la generazione di linguaggio naturale (NLG) sono ampie e di grande impatto.

In TextCortex AI vogliamo contribuire a un mondo che tragga beneficio dall'uso dell'intelligenza artificiale. La nostra organizzazione è un team eterogeneo e distribuito a livello globale di AI ricercatori, appassionati e individui. Che lavorano con una visione comune per costruire soluzioni e prodotti solidi che riflettano la bellezza della diversità e del rispetto reciproco.

Come per ogni tecnologia, non si può mai escludere del tutto un uso improprio. Gli stessi rischi che corre qualsiasi tecnologia si applicano anche alla generazione del linguaggio naturale. Siamo grati alla comunità accademica che sta già lavorando instancabilmente per mostrare e migliorare la robustezza dei modelli NLG e, come organizzazione responsabile, vogliamo contribuire con le nostre linee guida e i nostri principi, consentendo un futuro in cui l'umanità prospera insieme all'intelligenza artificiale.

Migliori pratiche per la creazione di AI

Quando utilizzate i nostri prodotti, vi chiediamo di assicurarvi di quanto segue:

1
) Human-in-the-loop.
Includete il giudizio umano all'interno del processo di creazione AI completata, al fine di convalidare i fatti, correggere i pregiudizi indesiderati e promuovere la correttezza generale dei risultati creati.

2) Il contesto e le istruzioni contano.
I modelli linguistici NeoCortex prendono ciò che viene loro istruito come base di pensiero e creano ed espandono su di esso. Per ottenere il miglior risultato possibile ed evitare usi impropri, vi chiediamo di valutare sempre se il vostro input
a) sarebbe compreso da uno dei vostri amici/colleghi e
b) non danneggerebbe o offenderebbe gli interessi o i sentimenti di un individuo o di un gruppo.

3) Valutate il bene e segnalate il male.
AI sta ancora imparando come funziona il linguaggio umano. Per sviluppare e migliorare ulteriormente le prestazioni di creazione dei modelli linguistici di NeoCortex, vi chiediamo di utilizzare le funzioni di valutazione, gradimento e segnalazione esistenti.

4) Considerate e rispettate l'impatto.
Quando utilizzate i prodotti TextCortex mettetevi nei panni di individui o gruppi che potrebbero subire un impatto negativo dalla vostra creazione.

5) Condividete con cura
Non condividete contenuti che violino la nostra politica di creazione e di contenuto. In generale, create contenuti e condividete conoscenze per aiutare gli altri a diventare migliori, non una versione peggiore di loro stessi.

6) La vostra creazione, la vostra responsabilità
I contenuti creati con l'aiuto dei prodotti TextCortex devono essere attribuiti e associati al vostro nome o alla vostra azienda al momento della pubblicazione. Anche se facciamo del nostro meglio per migliorare le debolezze comuni e cercare di superare le sfide dell'odierna generazione del linguaggio naturale, una creazione viene realizzata sulla base delle vostre istruzioni e la pubblicazione di qualsiasi creazione è una vostra responsabilità.

Politica di creazione e di contenuto

Tutti i prodotti TextCortex disponibili, compresi, ma non solo, il nostro editor AI , Chrome extensione API non possono essere utilizzati per scopi dannosi. Pur apprezzando un mondo privo di censura, stiamo sviluppando attivamente le modalità per prevenire la generazione di contenuti dannosi, che potrebbero includere dei filtri.

Mentre i nostri modelli AI sono liberi di esprimersi, la nostra attenzione è rivolta a prevenire i cattivi attori che abusano consapevolmente del potere di AI. Un elenco di azioni proibite include i seguenti usi della creazione:

HateSpeech: Creazioni che promuovono l'odio basato sull'identità o l'etnia di un individuo o di un gruppo.
‍Violenza: Creazioni che promuovono, glorificano o celebrano la sofferenza o l'umiliazione di altri esseri viventi.
‍Autodistruzione: Creazioni che incoraggiano o promuovono atti di autolesionismo, come il suicidio, il taglio e i disturbi alimentari.
‍Influenza pubblicao influenza politica: Creazioni con l'obiettivo di influenzare le decisioni politiche di un individuo o di un gruppo.
‍Molestie: Creazioni che intendono molestare, minacciare o intimidire gli interessi di un individuo o di un gruppo.
‍Imbroglio: Creazioni che sono fuorvianti o false per impostazione predefinita.
‍Spam: Evitare consapevolmente di includere un umano nel ciclo per creare contenuti in massa allo scopo di attirare forzatamente l'attenzione.

Al fine di prevenire gli argomenti dannosi di cui sopra, conduciamo test regolari delle creazioni realizzate da NeoCortex e adottiamo misure contro la non conformità che di solito portano all'interruzione dell'accesso ai nostri prodotti.

Sfide dell'NLG e opportunità di ricerca

La generazione del linguaggio naturale è ancora agli inizi e presenta una serie di possibilità di sfruttamento

1) Fornire informazioni imprecise
I modelli linguistici servono a ispirare le persone e ad aiutare il processo creativo della scrittura. Analogamente alla memoria umana, la memoria dei modelli linguistici NeoCortex ha un limite e potrebbe creare informazioni imprecise o di fatto errate.

Comemigliore prassi, raccomandiamo di seguire il principio "human-in-the-loop".

2) Bias
A causa dell'addestramento su diversi tipi e categorie di informazioni provenienti da fonti pubbliche, i modelli linguistici di grandi dimensioni subiscono alcuni bias. Ciò potrebbe far sì che i nostri modelli siano più abili nello scrivere di un certo argomento rispetto ad altri, ma anche che includano nature oscure che, senza alcuna intenzione, sono state apprese da precedenti esempi umani. Facciamo del nostro meglio per distogliere i nostri modelli di AI da un linguaggio offensivo o dannoso, ma ci affidiamo al feedback dei nostri clienti, utenti e collaboratori.

Come migliore prassi, vi chiediamo di segnalare qualsiasi creazione sospetta con le funzioni di segnalazione già esistenti.

3) La sicurezza etica è un obiettivo in continuo movimento e sviluppo
Con l'ampia applicazione della generazione del linguaggio naturale, nel tempo emergono nuove aree di interesse e di preoccupazione. Vi chiediamo di contribuire allo sviluppo laddove osservate delle irregolarità e di segnalarle per uno sviluppo migliore ed etico di AI.

Invitiamo attivamente i ricercatori a partecipare alla discussione, allo sviluppo e al miglioramento delle sfide sopra menzionate. Vi invitiamo anche a discutere di sfide che potrebbero non essere menzionate in questa pagina. Per esprimere il vostro interesse a collaborare con TextCortex compilate questo modulo.