banner

Blog

Sep 19, 2023

ChatGPT könnte die Wissenschaft verändern. Aber es ist noch kein A+-Schüler: NPR

Emma Bowman

Geben Sie eine Eingabeaufforderung in ChatGPT ein und es wird zu Ihrem ganz persönlichen virtuellen Assistenten. OpenAI/Screenshot von NPR Bildunterschrift ausblenden

Geben Sie eine Eingabeaufforderung in ChatGPT ein und es wird zu Ihrem ganz persönlichen virtuellen Assistenten.

Warum Ihre Hausaufgaben machen, wenn ein Chatbot das für Sie erledigen kann? Ein neues Tool für künstliche Intelligenz namens ChatGPT hat das Internet mit seinen übermenschlichen Fähigkeiten, mathematische Probleme zu lösen, College-Aufsätze zu verfassen und Forschungsarbeiten zu verfassen, begeistert.

Nachdem der Entwickler OpenAI das textbasierte System letzten Monat der Öffentlichkeit zugänglich gemacht hat, schlagen einige Pädagogen Alarm wegen des Potenzials, das solche KI-Systeme haben, um die akademische Welt im Guten wie im Schlechten zu verändern.

„KI hat die Hausaufgaben im Grunde ruiniert“, sagte Ethan Mollick, Professor an der Wharton School of Business der University of Pennsylvania, auf Twitter.

Das Tool sei bei vielen seiner Studenten sofort ein Hit gewesen, sagte er gegenüber NPR in einem Interview in der Morning Edition, wobei seine offensichtlichste Verwendung darin bestehe, durch Plagiierung der von der KI geschriebenen Arbeit zu betrügen, sagte er.

Abgesehen vom akademischen Betrug sieht Mollick auch seine Vorteile als Lernbegleiter.

Er hat es als Assistent seines eigenen Lehrers verwendet, um ihm bei der Erstellung eines Lehrplans, einer Vorlesung, einer Hausaufgabe und einer Bewertungsrubrik für MBA-Studenten zu helfen.

„Sie können ganze wissenschaftliche Arbeiten einfügen und es bitten, diese zusammenzufassen. Sie können es bitten, einen Fehler in Ihrem Code zu finden und ihn zu korrigieren und Ihnen zu sagen, warum Sie etwas falsch gemacht haben“, sagte er. „Es ist dieser Multiplikator an Fähigkeiten, den wir meiner Meinung nach noch nicht ganz verstehen, der ist absolut atemberaubend“, sagte er.

Aber der übermenschliche virtuelle Assistent hat – wie jede neue KI-Technologie – seine Grenzen. ChatGPT wurde schließlich von Menschen erstellt. OpenAI hat das Tool anhand eines großen Datensatzes echter menschlicher Gespräche trainiert.

„Der beste Weg, darüber nachzudenken, ist, mit einem allwissenden, hilfsbereiten Praktikanten zu plaudern, der einen manchmal anlügt“, sagte Mollick.

Es liegt auch im Vertrauen. Trotz seines autoritativen Tons gibt es Fälle, in denen ChatGPT Ihnen nicht mitteilt, wenn es keine Antwort hat.

Das hat Teresa Kubacka, eine Datenwissenschaftlerin aus Zürich, Schweiz, herausgefunden, als sie mit dem Sprachmodell experimentierte. Kubacka, die für ihre Doktorarbeit Physik studierte, testete das Tool, indem sie es nach einem erfundenen physikalischen Phänomen befragte.

„Ich habe es absichtlich nach etwas gefragt, von dem ich dachte, dass es nicht existiert, damit sie beurteilen können, ob es tatsächlich auch die Vorstellung davon hat, was existiert und was nicht“, sagte sie.

ChatGPT lieferte eine Antwort, die so konkret und plausibel klang und mit Zitaten untermauert war, dass sie untersuchen musste, ob das gefälschte Phänomen, „ein zykloidisches invertiertes Elektromagnon“, tatsächlich real sei.

Als sie genauer hinsah, sei auch das angebliche Quellenmaterial gefälscht, sagte sie. Aufgeführt seien Namen bekannter Physikexperten – die Titel der angeblich von ihnen verfassten Veröffentlichungen seien jedoch nicht existent, sagte sie.

„Hier wird es irgendwie gefährlich“, sagte Kubacka. „In dem Moment, in dem man den Referenzen nicht mehr trauen kann, untergräbt das auch irgendwie das Vertrauen in die Zitierung von Wissenschaft überhaupt“, sagte sie.

Wissenschaftler nennen diese falschen Generationen „Halluzinationen“.

„Es gibt immer noch viele Fälle, in denen man eine Frage stellt und eine sehr beeindruckend klingende Antwort erhält, die einfach völlig falsch ist“, sagte Oren Etzioni, der Gründungs-CEO des Allen Institute for AI, der die gemeinnützige Forschungsorganisation bis dahin leitete kürzlich. „Und das ist natürlich ein Problem, wenn man die Fakten nicht sorgfältig überprüft oder bestätigt.“

Benutzer, die mit dem Chatbot experimentieren, werden vor dem Testen des Tools gewarnt, dass ChatGPT „gelegentlich falsche oder irreführende Informationen generieren kann“. OpenAI/Screenshot von NPR Bildunterschrift ausblenden

Benutzer, die mit der kostenlosen Vorschau des Chatbots experimentieren, werden vor dem Testen des Tools gewarnt, dass ChatGPT „gelegentlich falsche oder irreführende Informationen“, schädliche Anweisungen oder voreingenommene Inhalte generieren kann.

Sam Altman, CEO von OpenAI, sagte Anfang des Monats, es wäre ein Fehler, sich in der aktuellen Version bei allem „Wichtigen“ auf das Tool zu verlassen. „Es ist eine Vorschau auf den Fortschritt“, twitterte er.

Die Mängel eines anderen KI-Sprachmodells, das Meta letzten Monat vorgestellt hatte, führten zu dessen Abschaltung. Das Unternehmen zog seine Demoversion von Galactica, einem Tool zur Unterstützung von Wissenschaftlern, nur drei Tage nach der Aufforderung an die Öffentlichkeit zurück, es auszuprobieren, nachdem es kritisiert hatte, dass es voreingenommenen und unsinnigen Text ausspuckte.

Ebenso sagt Etzioni, dass ChatGPT keine gute Wissenschaft hervorbringt. Trotz aller Mängel sieht er das öffentliche Debüt von ChatGPT jedoch als positiv an. Er sieht dies als einen Moment für ein Peer-Review.

„ChatGPT ist erst ein paar Tage alt, sage ich gerne“, sagte Etzioni, der weiterhin als Vorstandsmitglied und Berater am KI-Institut tätig ist. Es geht darum, „uns die Chance zu geben, zu verstehen, was er tun kann und was nicht, und ernsthaft das Gespräch zu beginnen: ‚Was werden wir dagegen tun?‘“ "

Die Alternative, die er als „Sicherheit durch Dunkelheit“ beschreibt, werde nicht dazu beitragen, fehlbare KI zu verbessern, sagte er. „Was wäre, wenn wir die Probleme verbergen? Wird das ein Rezept für ihre Lösung sein? Normalerweise – nicht in der Welt der Software – hat das nicht geklappt.“

AKTIE