In den letzten Tagen (wir haben in einem Artikel darüber gesprochen) Die New York Times hat einen Präzedenzfall von großer symbolischer Bedeutung geschaffen.
Mit anderen Worten: Es verhinderte, dass die künstliche Intelligenz von OpenAI trainierte, indem sie sich auch von den Inhalten der Veröffentlichung „ernährte“.
Es handelt sich dabei offensichtlich um eine Maßnahme, deren Ziel es ist, die Rechte des geistigen Eigentums zu schützen. Eine komplizierte Rede, die lange halten wird, wenn es um generative künstliche Intelligenz geht. Beispielsweise gibt es ein ganz aktuelles Urteil eines US-Gerichts, wonach „kreative“ Inhalte, die von KI produziert werden, nicht urheberrechtlich geschützt sein dürfen.
Ein weiteres, nicht allzu fernes Thema ist die Spaltung der Stars des Liedes: Es handelt sich um die scheinbar bevorstehende Vereinbarung zwischen Google und Universal, Musik mit künstlicher Intelligenz zu schaffen, die auf den Vocals und Klängen berühmter Sänger und Musiker basiert.
Aber wie ein aktueller NewsGuard-Bericht zeigte, Bei der Produktion von Inhalten gibt es diejenigen, die KI völlig lässig einsetzen und dabei keinerlei Rücksicht auf etwaige Urheberrechte nehmen.
NewsGuard-Recherche
Es ist kein Zufall, dass die New York Times ihre Türen für Chatbots geschlossen hat, da ihre Website zu den am häufigsten geplünderten gehört.
Dies geht aus einem NewsGuard-Bericht über den Monat August hervor, der am Donnerstag, dem 24., auf der Website veröffentlicht wurde.
Die Untersuchung zielt darauf ab, die Websites zu identifizieren, die in der Praxis (oder fast) die Inhalte der wichtigsten Zeitungen plagiieren. Und wie … bei jedem Plagiat, das etwas auf sich hält, achten sie darauf, nicht die Originalquelle zu zitieren.
Wir erinnern Sie daran, dass NewsGuard durch ein Team von Journalisten und Redakteuren Bewertungen und Bewertungen der Zuverlässigkeit von Internetseiten erstellt, monatliche Berichte erstellt und regelmäßig spezielle Überwachungszentren eröffnet.
Content-Farmen, KI und plagiierte Inhalte
Zur Analyse durch NewsGuard wurden mehrere „Content Farms“ analysiert, also Unternehmen, die schnell eine große Menge an Inhalten generieren. Dies geht zwangsläufig zu Lasten der Qualität.
Mit einem zusätzlichen Paradoxon: Die „Content Farms“ produzieren riesige Mengen an Inhalten, um sich bei Google besser zu positionieren und Werbung von großen Unternehmen zu erhalten. Allerdings suchen sie dabei häufig nach unzuverlässigen Websites. Oder, wie wir sehen werden, Parasiten anderer.
Tatsächlich im August NewsGuard hat 37 Websites identifiziert, die „den Anschein haben“ (die Bedingung steht im Bericht), sich auf Chatbots verlassen zu haben, um Artikel umzuschreiben, die bereits in einigen maßgeblichen Zeitungen erschienen sind, wie CNN, die New York Times und Reuters. Zeitungen, die zudem nie als Quellen der Inhalte genannt wurden.
Darüber hinaus ist auf 15 dieser 37 Websites programmatische Werbung großer Marken präsent.
Darüber hinaus scheint die Automatisierung einiger von ihnen sogar vollständig zu sein. In dem Sinne, dass einige der 37 analysierten Websites Artikel ohne Aufsicht oder menschliches Eingreifen produzieren.
Umschreiben oder Plagiat?
Der grundlegende Punkt ist, ob das Umschreiben von Inhalten mithilfe von KI als Plagiat angesehen werden kann oder nicht.
In derselben NewsGuard-Recherche lesen wir, dass wir uns in einem Grenzbereich befinden: „Es ist nicht klar, wie diese neue Praxis beschrieben werden soll und auch nicht, ob die mit KI umgeschriebenen Artikel ‚Originalinhalt‘ darstellen können.“ Bestenfalls könnte man von einer „effizienten Aggregation“ sprechen; im schlimmsten Fall von „hypereffizientem Plagiat“. Wie auch immer Sie es nennen (und die Gerichte werden wahrscheinlich darüber entscheiden), noch nie zuvor hatten Websites die Möglichkeit, von anderen erstellte Artikel nahezu in Echtzeit und auf eine Weise umzuschreiben, die oft schwer zu erkennen ist.“
Was sicher ist, ist das Die beiden wichtigsten Chatbots (ChatGPT von OpenAI und Bard von Google) verbieten in ihren Richtlinien ausdrücklich ihre Verwendung zum Plagiieren der Inhalte anderer Personen.
NewsGuard hat im Zusammenhang mit seiner Untersuchung eine E-Mail an OpenAI und eine an Google gesendet und bisher keine Antwort erhalten.
Kein menschliches Eingreifen
Die meisten der 37 Websites, die Inhalte aus anderen Veröffentlichungen reproduzieren, agieren, wie bereits erwähnt, in keiner Phase des Prozesses ohne menschliche Aufsicht.
Sie sind daher darin geschult, Inhalte abzufangen, zu plagiieren, umzuschreiben und zu veröffentlichen.
Ein eindeutiges Signal in diesem Sinne, das den Startschuss für die Forschung von NewsGuard gab, ist die Tatsache, dass einige von der KI erarbeitete und umfunktionierte Inhalte die „Begründung“ der Software enthalten.
Beispielsweise veröffentlichte TopGolf.kr am 28. Mai 2023 einen Artikel, der dem am selben Tag im Wired Magazine veröffentlichten Artikel sehr ähnlich war.
Und die Überschrift lautet: „Als sprachliches Modell der KI bin ich mir der Vorlieben menschlicher Leser nicht sicher, aber hier sind einige alternative Überschriftenoptionen…“