Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

URL has been copied successfully!
Kritik an OpenAI: Experten warnen vor verkürzten Sicherheitstests
URL has been copied successfully!

Collecting Cyber-News from over 60 sources

Kritik an OpenAI: Experten warnen vor verkürzten Sicherheitstests

OpenAI hat offenbar seine Sicherheitstests verkürzt.OpenAI ist bekannt für seine KI-Projekte wie der GPT-Reihe, Codec, DALL-E und Whisper. Experten befürchten nun, dass das KI-Forschungsunternehmen seine KI-Angebote ohne angemessenen Schutz bereitstellen könnte.Laut einem Bericht der Financial Times (FT) gibt der Hersteller von ChatGPT seinen Mitarbeitenden und externen Gruppen nur noch wenige Tage Zeit, um die Risiken sowie die Leistung seiner neuesten Large Language Models (LLMs) zu bewerten. Zuvor standen ihnen noch mehrere Monate zur Verfügung.Dies könnte möglicherweise damit zusammenhängen, dass OpenAI Modelle schneller veröffentlichen will und den Schwerpunkt weg von Trainingsmodellen und hin zu Inferenz (Generierung neuer Daten) verlagern will.’KI wird zu einem sehr wettbewerbsintensiven Feld, da alle Technologieunternehmen ihre Modelle mit einer atemberaubenden Geschwindigkeit auf den Markt bringen”, erklärt Pareekh Jain, CEO und leitender Analyst bei Parekh Consulting. In dem FT-Bericht werden acht Personen zitiert, die mit dem Testverfahren von OpenAI vertraut sind. Demnach hat das Unternehmen seine Bemühungen bei den Sicherheitstests zurückgefahren sowie weniger Ressourcen und Zeit für Risikobewertungen aufgewendet.OpenAI hat seinen Sicherheitsansatz für seine GPT-Modelle offenbar im Laufe der Zeit verändert. Für GPT-4 widmete das Unternehmen über sechs Monate Sicherheitsbewertungen, bevor es offiziell an den Start ging. Für das GPT-4-Omni-Modell verkürzte OpenAI die Testphase jedoch auf nur eine Woche, um den Starttermin im Mai 2024 einzuhalten. Weniger Tests könnten die Modellintegrität beeinträchtigen: ‘Die Verkürzung der Zeit für Sicherheitstests könnte die Qualität des Startmodells erheblich beeinträchtigen”, mahnen Experten. ‘Wenn es Fälle von Halluzinationen oder Schäden aufgrund von Modellausgaben gibt, wird OpenAI das Vertrauen der Menschen verlieren und damit zurecht kommen müssen, dass die Einführung strauchelt”, betont Jain.”Das kann auf die Verkürzung der Testzeit zurückgeführt werden. OpenAI hat bereits ein Imageproblem, weil es von einem gemeinnützigen zu einem gewinnorientierten Unternehmen geworden ist. Jeder Vorfall kann das angeschlagene Image weiter schädigen, dass sie aus Profitgründen auf angemessene Tests verzichten”, fügt der Parekh Consulting-Analyst hinzu.Eine der Quellen bezeichnete die Verkürzung der Testzeit als ‘leichtsinnig” und als ‘Rezept für eine Katastrophe”. Eine andere Person, die an den GPT-4-Tests beteiligt war, sagte, dass einige mögliche Gefahren erst zwei Monate nach Beginn der Tests entdeckt wurden.OpenAI reagierte zwar nicht sofort auf Anfragen, aber der LLM-Riese hat in der Vergangenheit bereits Erfahrung im Umgang mit solchen Vorwürfen gesammelt.Als Reaktion auf eine ähnliche Kritik wandelte OpenAI im September 2024 seinen Sicherheitsausschuss in einen unabhängigen ‘Aufsichtsausschuss des Vorstands” um. Dieser ist befugt, die Einführung von Modellen aus Sicherheitsgründen zu verzögern. Verbesserte KI könnte schnellere Tests vorantreiben: Jain deutete an, dass OpenAI tatsächlich in der Lage sein könnte, Tests zu beschleunigen, ohne die Sicherheit zu gefährden: ‘OpenAI muss auch in seinen internen Prozessen viel KI einsetzen. Sie könnten versuchen, die Einführung ihres Modells durch mehr KI-Einsatz zu beschleunigen.” Dieser Gedanke wird durch eine Behauptung von OpenAI im Dezember 2024 gestützt, in der sie sagten, dass ihre Testmodelle mit KI schnell leistungsfähiger werden.

First seen on csoonline.com

Jump to article: www.csoonline.com/article/3961574/kritik-an-openai-experten-warnen-vor-verkurzten-sicherheitstests.html

Loading

Share via Email
Share on Facebook
Tweet on X (Twitter)
Share on Whatsapp
Share on LinkedIn
Share on Xing
Copy link