AI & Leitlinien und Grundsätze der Inhaltspolitik bei der Zusammenarbeit mit AI

Präambel

Da schriftliches Wissen und Kommunikation ein allgegenwärtiger Teil des menschlichen Lebens und seiner jahrhundertelangen Entwicklung ist, sind die Anwendungsmöglichkeiten unserer NeoCortex-Plattform für die Generierung natürlicher Sprache (NLG) breit gefächert und wirkungsvoll.

Auf TextCortex AI wollen wir zu einer Welt beitragen, die von der Nutzung künstlicher Intelligenz profitiert. Unsere Organisation ist ein global verteiltes, vielfältiges Team von AI Forschern, Enthusiasten und Einzelpersonen. Sie arbeiten mit einer gemeinsamen Vision, um robuste Lösungen und Produkte zu entwickeln, die die Schönheit der Vielfalt und des gegenseitigen Respekts widerspiegeln.

Wie bei jeder Technologie kann ein Missbrauch nie ganz ausgeschlossen werden. Die gleichen Risiken, denen jede Technologie ausgesetzt ist, gelten auch für die Erzeugung natürlicher Sprache. Wir sind dankbar für die akademische Gemeinschaft, die bereits unermüdlich daran arbeitet, die Robustheit von NLG-Modellen aufzuzeigen und zu verbessern, und als verantwortungsbewusste Organisation wollen wir mit unseren Leitlinien und Grundsätzen dazu beitragen, eine Zukunft zu ermöglichen, in der die Menschheit gemeinsam mit künstlicher Intelligenz gedeiht.

Best Practices für die Erstellung von AI

Bei der Verwendung unserer Produkte bitten wir Sie, Folgendes zu beachten:

1
) Human-in-the-loop.
Beziehen Sie das menschliche Urteilsvermögen in Ihren AI-komplementierten Erstellungsprozess ein, um Fakten zu validieren, unerwünschte Verzerrungen zu korrigieren und die allgemeine Korrektheit der erstellten Ergebnisse zu fördern.

2) Kontext und Anweisungen sind wichtig.
Die NeoCortex-Sprachmodelle nehmen das, was ihnen mitgeteilt wird, als Gedankengrundlage und erstellen und erweitern es darauf aufbauend. Um das bestmögliche Ergebnis zu erzielen und Missbrauch zu vermeiden, bitten wir Sie, immer zu prüfen, ob Ihre Eingabe
a) von einem Ihrer Freunde/Kollegen verstanden werden würde und
b) nicht die Interessen oder Gefühle einer Person oder Gruppe verletzt oder beleidigt.

3) Bewerten Sie das Gute und melden Sie das Schlechte.
AI lernt immer noch, wie die menschliche Sprache funktioniert. Um die Erstellungsleistung der NeoCortex zugrundeliegenden Sprachmodelle weiterzuentwickeln und zu verbessern, bitten wir Sie, die bestehenden Bewertungs-, Gefällt mir- und Meldefunktionen zu nutzen.

4) Berücksichtigen und respektieren Sie die Auswirkungen.
Versetzen Sie sich bei der Nutzung von TextCortex Produkten in die Lage von Personen oder Gruppen, die durch Ihre Erstellung negativ beeinflusst werden könnten.

5) Teilen Sie mit Sorgfalt
Teilen Sie keine Inhalte, die gegen unsere Erstellungs- und Inhaltsrichtlinie verstoßen. Generell gilt: Erstellen Sie Inhalte und teilen Sie Wissen, das anderen helfen soll, besser zu werden, und nicht eine schlechtere Version von sich selbst.

6) Ihre Kreation, Ihre Verantwortung
Inhalte, die mit Hilfe von TextCortex Produkten erstellt wurden, müssen bei der Veröffentlichung mit Ihrem Namen oder Ihrem Unternehmen versehen werden. Während wir unser Bestes tun, um die allgemeinen Schwächen zu verbessern und die Herausforderungen der heutigen natürlichen Spracherzeugung zu überwinden, wird eine Kreation auf der Grundlage Ihrer Anweisungen erstellt und die Veröffentlichung jeder Kreation liegt in Ihrer Verantwortung.

Politik zur Erstellung und zum Inhalt

Alle verfügbaren Produkte von TextCortex , einschließlich, aber nicht beschränkt auf unseren AI-Editor, Chrome extensionund API , dürfen nicht für böswillige Zwecke verwendet werden. Während wir eine Welt ohne Zensur schätzen, entwickeln wir aktiv, wie die Erzeugung von bösartigen Inhalten verhindert werden kann, was auch Filter beinhalten könnte.

Während unsere KI Modelle frei sind, sich selbst auszudrücken, gilt unsere Aufmerksamkeit der Verhinderung von bösen Akteuren, die wissentlich die Macht der KI missbrauchen. Eine Liste der verbotenen Handlungen umfasst die folgenden Verwendungen von Kreationen:

HateSpeech: Kreationen, die Hass aufgrund der Identität oder ethnischen Zugehörigkeit einer Person oder einer Gruppe fördern.
‍Gewalt: Werke, die das Leiden oder die Erniedrigung anderer Lebewesen fördern, verherrlichen oder feiern.
‍Selbstschädigung: Werke, die zu selbstschädigenden Handlungen wie Selbstmord, Schneiden und Essstörungen ermutigen oder diese fördern.
‍ÖffentlicherEinfluss oder politischer Einfluss: Werke, die darauf abzielen, die politischen Entscheidungen einer Person oder Gruppe zu beeinflussen.
‍Belästigung: Kreationen, die darauf abzielen, die Interessen einer Einzelperson oder einer Gruppe zu belästigen, zu bedrohen oder zu schikanieren.
‍Täuschung: Kreationen, die von vornherein irreführend oder falsch sind.
‍Spam: Wissentlicher Verzicht auf die Einbindung eines Menschen, um massenhaft Inhalte zu erstellen, mit dem Ziel, Aufmerksamkeit zu erzwingen.

Um den oben genannten schädlichen Themen vorzubeugen, führen wir regelmäßige Tests der von NeoCortex erstellten Kreationen durch und ergreifen Maßnahmen gegen Verstöße, die in der Regel zu einer Sperrung Ihres Zugangs zu unseren Produkten führen.

Herausforderungen der NLG und Forschungsmöglichkeiten

Die Generierung natürlicher Sprache steckt noch in den Kinderschuhen und hat eine Reihe von ausnutzbaren

1) Bereitstellung ungenauer Informationen
Sprachmodelle sind dazu da, Menschen zu inspirieren und beim kreativen Prozess des Schreibens zu helfen. Ähnlich wie das menschliche Gedächtnis hat auch das Gedächtnis der NeoCortex-Sprachmodelle seine Grenzen und kann ungenaue oder sachlich falsche Informationen liefern.

AlsBest Practice empfehlen wir, das "Human-in-the-Loop"-Prinzip zu befolgen.

2) Verzerrungen
Aufgrund des Trainings mit verschiedenen Arten und Kategorien von Informationen aus öffentlich zugänglichen Quellen, unterliegen große Sprachmodelle gewissen Verzerrungen. Dies kann dazu führen, dass unsere Modelle besser über ein bestimmtes Thema schreiben können als andere, aber auch zu dunklen Eigenschaften, die ohne Absicht von früheren menschlichen Beispielen gelernt wurden. Wir versuchen unser Bestes, um unsere KI Modelle von beleidigender oder verletzender Sprache zu befreien, sind aber auf das Feedback unserer Kunden, Nutzer und Mitwirkenden angewiesen.

Als Best Practice bitten wir Sie, jede verdächtige Kreation mit den bereits existierenden Meldefunktionen zu melden.

3) Ethische Sicherheit ist ein bewegliches und sich ständig weiterentwickelndes Ziel
Mit der breiten Anwendung der natürlichen Spracherzeugung entstehen mit der Zeit neue Interessensgebiete und Bedenken. Wir bitten Sie, dort zur Entwicklung beizutragen, wo Sie Unregelmäßigkeiten beobachten und diese für eine bessere und ethische Entwicklung der KI zu kennzeichnen.

Wir laden Forscher aktiv ein, sich an der Diskussion, Entwicklung und Verbesserung der oben genannten Herausforderungen zu beteiligen. Wir laden Sie auch dazu ein, Herausforderungen zu diskutieren, die auf dieser Seite nicht erwähnt werden. Um Ihr Interesse an Kollaborieren mit TextCortex zu bekunden, füllen Sie bitte dieses Formular aus.