OpenAI arbeitet an einem neuen Projekt mit dem Code-Namen Strawberry, welches die Fähigkeit der KI-Modelle zum logischen Denken (auf Englisch „reasoning“) verbessern soll. Das berichtet Reuters unter Berufung auf eine mit der Situation vertraute Person sowie interne Dokumente. Letztere verdeutlichen die Ziele, die mit dem Projekt Strawberry verfolgt werden, allerdings nicht die Art und Weise, wie diese konkret umgesetzt werden sollen.

Das Projekt befindet sich aktuell noch im Entwicklungsprozess. Genauere Informationen, etwa wann mit einem Launch von Strawberry zu rechnen ist, sind bislang nicht bekannt. Selbst innerhalb des Unternehmens sei das Projekt ein „streng gehütetes Geheimnis“.

Das kann Strawberry

Die Fähigkeit zum logischen Denken ist laut KI-Expert:innen essentiell, um menschliche oder sogar übermenschliche Intelligenz zu erreichen. Project Strawberry soll es den KI-Tools von OpenAI ermöglichen, nicht nur auf Basis der aus dem Training verfügbaren Informationen Prompt-Antworten zu generieren, sondern selbstständig das Internet zu durchsuchen und so „deep research“ zu betreiben. Zwar kann ChatGPT schon seit September 2023 das Internet durchsuchen, allerdings nur nach Aufforderung und mit teils unpassenden Ergebnissen.

Ein:e Sprecher:in des Unternehmens ging auf konkrete Nachfragen zu Strawberry durch Reuters nicht ein, bestätigte jedoch indirekt, die eigenen KI-Modelle mit einer besseren Fähigkeit zum logischen Denken ausstatten zu wollen:

We want our AI models to see and understand the world more like we do. Continuous research into new AI capabilities is a common practice in the industry, with a shared belief that these systems will improve in reasoning over time.

Laut Reuters war das Project Strawberry zuvor unter dem Namen Q bekannt. Demos zeigten die Fähigkeit des Modells auf, komplizierte wissenschaftliche und mathematische Fragen zu beantworten – dieses Ziel dürfte demnach auch Strawberry verfolgen. Erst kürzlich hat OpenAI im Rahmen eines internen Meetings ein Projekt vorgestellt, das über menschengleiche logische Denkfähigkeiten verfügen soll. Ob es sich hierbei um Strawberry handelt, ist jedoch unklar.

Geht OpenAI illegal gegen Whistleblower vor?

Während OpenAI die Fähigkeiten der eigenen Modelle kontinuierlich ausbaut, wachsen auch die Sorgen bezüglich potenziell negativer und umfassender Konsequenzen durch die Nutzung von Künstlicher Intelligenz. Nun wurde bekannt, dass OpenAI die eigenen Mitarbeiter:innen mutmaßlich davon abhalten wollte, Aufsichtsbehörden über Risiken der eigenen Technologie zu warnen. Dies geht aus einer Beschwerde mehrerer Whistleblower an die US-amerikanische Securities and Exchange Commission (SEC) hervor, welche der Washington Post vorliegt.

Mit Non-Disclosure Agreements (NDAs) und anderen Maßnahmen wurden die Mitarbeiter:innen eigenen Angaben zufolge unter anderem dazu aufgefordert, auf Vergütungen zu verzichten, die ihnen als Whistleblower zuständen, und vor der Veröffentlichung von Informationen um die Einwilligung des Unternehmens zu bitten. Eine der betroffenen Personen äußerte sich gegenüber der Washington Post:

These contracts sent a message that ‘we don’t want […] employees talking to federal regulators. […] I don’t think that AI companies can build technology that is safe and in the public interest if they shield themselves from scrutiny and dissent.

Laut der Beschwerde verstoßen die von OpenAI eingesetzten Verträge gegen schon lange bestehende Bundesgesetze. Die Mitarbeiter:innen fordern die SEC nun dazu auf, rechtliche Schritte einzuleiten. OpenAI selbst betonte hingegen, dass die „Whistleblower-Richtlinien“ des Unternehmens die Rechte der Mitarbeiter:innen schützen würden.


Mit ChatGPT, Dream Machine und Co. –
Creator erstellt Song und Musikvideo komplett mit AI

© Arata Fukoe, Screenshot, via Canva

Powered by WPeMatico

Teile diesen Beitrag