Am 9. November haben wir Cedille, das bisher größte Sprachmodell in französischer Sprache, öffentlich vorgestellt. Wir haben uns entschlossen, die Spielwiese für alle zugänglich zu machen, damit die Gemeinschaft das Modell frei entdecken kann. Bislang wurden bereits mehr als 90.000 Texte generiert, darunter philosophische Reden, Gedichte und viele andere interessante Richtungen.
Wir haben erstaunliches Feedback auf Twitter erhalten, aber auch einige Kritik an den Inhalten, die auf cedille.ai generiert werden. Im Folgenden findest du einige Beispiele für die Fähigkeiten des Modells:
Der französische Philosophieprofessor und Twitter-Nutzer MrPhi hat einen Turing-Test mit Cedille durchgeführt , indem er es dazu brachte, Nietzsche zu schreiben. Der Journalist Agar (@akaAgar) schrieb, dass Cedille sehr gut mit journalistischen Formaten arbeitet und dass er es nutzen möchte, um eine Gazette mit imaginären Nachrichten zu erstellen.
Ein anderer Nutzer forderte Cedille mit einem Satz aus einem seiner Spiele auf und twitterte, dass das Modell ein enormes Potenzial für Rollenspiele biete. Andere Anwendungsfälle waren die Eingabe der ersten Zeile der Wikipedia-Seite Dofus (ein berühmtes Online-Rollenspiel) oder die Bereitstellung der Mission ihres Arbeitsplatzes , um einen Slogan zu produzieren.
Mit mehr als 1'000 erstellten Konten wurden in den ersten Wochen einige Tests durchgeführt!
Da es sich um ein Projekt handelt, das sich noch in der Betaphase befindet, besteht ein Teil der freien Zugänglichkeit darin, jedem die Möglichkeit zu geben, mit dem Modell zu spielen, es von der Öffentlichkeit testen zu lassen und Feedback zu geben. Die Kritik an einigen der generierten Inhalte ist berechtigt. Obwohl wir uns sehr bemüht haben, die Toxizität zu verringern, und dies zu einer messbaren Verbesserung geführt hat, gibt es noch viel zu tun. Wir sind der Meinung, dass die Transparenz gegenüber der Gemeinschaft nach wie vor einer der wichtigsten Punkte des Projekts ist und dass sie die potenziellen Risiken überwiegt, die durch als unangemessen erachtete Inhalte entstehen.
Die meisten großen Unternehmen in diesem Bereich gewähren aus Angst vor derartigen Reaktionen überhaupt keinen Zugang mehr zu ihren Modellen. Wir halten es für besser, wenn die Öffentlichkeit über die Entwicklungen und Risiken in diesem Bereich informiert ist.
Das Modell ist als Open-Source verfügbar, so dass andere Forscher in diesem Bereich es für die Analyse dieser Art von Ergebnissen nutzen können. Wir hoffen, dass unser Ansatz den Forschern bei der Suche nach Lösungen für Toxizitätsprobleme helfen kann. Wir sind uns der Risiken bewusst und arbeiten hart daran, diese zu mindern.