Genug von deutscher Politik? 🌍😤 Dann bist du hier richtig! Die heißesten Krypto-News mit einer Prise Spaß und Sarkasmus. 🚀😎

👉Klick "Beitreten" und sei dabei!


Nach dem Debüt von ChatGPT Ende 2022 und seinem bedeutenden Beitrag zur Popularisierung künstlicher Intelligenz (KI) ist das Interesse verschiedener Unternehmen, darunter Technologie- und Nicht-Tech-Unternehmen, etablierte Unternehmen und neue Startups, gestiegen. Sie alle haben KI-Assistenten herausgebracht und innovative Anwendungen oder Verbesserungen vorgestellt, um die Aufmerksamkeit der Öffentlichkeit zu erregen.

Die Gewissheit von Technologieführern, dass KI alle Aufgaben bewältigen und mehrere Rollen übernehmen kann, hat dazu geführt, dass KI-Assistenten verschiedene Funktionen in unserem Leben übernehmen. Sie sind zu vertrauenswürdigen Beratern und Beratern in Geschäfts- und Beziehungsfragen geworden und bieten Orientierung und Unterstützung. Darüber hinaus fungieren sie als Therapeuten, Begleiter und Vertraute, die aufmerksam auf unsere persönlichen Informationen, Geheimnisse und Gedanken hören.

Die Unternehmen, die KI-gestützte Dienste anbieten, sind sich der Vertraulichkeit solcher Gespräche bewusst und garantieren, dass sie robuste Sicherheitsvorkehrungen treffen, um die Sicherheit unserer Daten zu gewährleisten. Aber können wir ihren Versprechen wirklich vertrauen?

KI-Assistenten – Freund oder Feind?

Eine im März von Forschern der Universität Ber-Gurion veröffentlichte neue Studie ergab, dass unsere vertraulichen Informationen möglicherweise gefährdet sind. Die Wissenschaftler entwickelten eine Methode, um die Antworten von KI-Assistenten mit bemerkenswerter Präzision zu entschlüsseln und dabei deren Verschlüsselung zu umgehen. Diese Technik nutzt einen Designfehler in den Systemen wichtiger Plattformen wie Microsofts Copilot und OpenAIs ChatGPT-4 aus, Googles Gemini bleibt jedoch davon unberührt.

Darüber hinaus ergab die Studie, dass ein Angreifer, der eine Möglichkeit zum Abfangen eines Chats entwickelt hat, beispielsweise mit ChatGPT, diese Methode ohne großen Mehraufwand auf andere ähnliche Plattformen anwenden kann. Folglich könnte dieses Tool unter Hackern verbreitet und umfassend genutzt werden.

Es gab frühere Untersuchungen, die Schwachstellen im Erstellungsprozess von KI-Helfern, einschließlich ChatGPT, aufgedeckt haben. Ergebnisse verschiedener akademischer Einrichtungen und von Google DeepMind wurden gegen Ende 2023 veröffentlicht. Diese Forscher fanden heraus, dass sie ChatGMT durch die Bereitstellung spezifischer Eingabeaufforderungen dazu bringen konnten, auswendig gelernte Teile seiner Trainingsdaten zu rezitieren.

Den Forschern gelang es, genaue Passagen aus Büchern und Gedichten, Webseiten-Links, eindeutige Benutzerkennungen, Bitcoin-Wallet-Adressen und Codierungsskripte von ChatGPT abzurufen.

Böswillige Akteure können absichtlich irreführende Eingabeaufforderungen erstellen oder die Bots mit falschen Daten füttern, um den Trainingsprozess zu manipulieren. Dies könnte dazu führen, dass vertrauliche persönliche und berufliche Informationen in den Datensatz aufgenommen werden.

Open-Source-Modelle stellen zusätzliche Sicherheitsherausforderungen dar. Eine Studie ergab beispielsweise, dass ein Angreifer den Konvertierungsdienst von Hugging Face manipulieren und die Kontrolle über jedes übermittelte Modell übernehmen konnte. Die Folgen eines solchen Verstoßes sind schwerwiegend. Ein Eindringling könnte das Zielmodell durch sein eigenes bösartiges Modell ersetzen, schädliche Modelle in Repositories hochladen oder sich sogar Zugriff auf private Datensatz-Repositories verschaffen.

Diese Organisationen, darunter Microsoft und Google, mit insgesamt 905 Modellen auf Hugging Face, die über den Konvertierungsdienst modifiziert wurden, könnten anfällig für Hackerangriffe gewesen sein und möglicherweise bereits angegriffen worden sein.

Die Dinge können schlimmer werden

Die Ausstattung von KI-Assistenten mit größeren Fähigkeiten kann verlockend sein, erhöht aber auch das Risiko, Opfer von Cyberangriffen zu werden.

Letztes Jahr schrieb Bill Gates in seinem Blog über die zukünftige Rolle fortgeschrittener künstlicher Intelligenz (KI). Er bezeichnete diese KI als „umfassenden Assistenten“ oder „Agenten“, der Zugriff auf alle unsere persönlichen und geschäftlichen Geräte erhält. Seine Funktion wäre es, die von diesen Geräten gesammelten Daten zusammenzuführen und zu untersuchen und uns als effizienter und effektiver Assistent bei der Verwaltung von Informationen und Aufgaben zu dienen.

Wie Gates im Blog schrieb:

Wenn Sie möchten, kann Ihnen ein Makler bei all Ihren Aktivitäten behilflich sein. Mit der Erlaubnis, Ihre Online-Interaktionen und realen Standorte zu verfolgen, wird es ein umfassendes Verständnis für die Menschen, Orte und Aktivitäten entwickeln, an denen Sie teilnehmen. Es wird Ihre persönlichen und beruflichen Beziehungen, Hobbys, Vorlieben und Ihren Zeitplan ermitteln. Sie entscheiden, wie und wann es eingreift, um bei etwas zu helfen oder Sie um eine Entscheidung zu bitten.

Das ist keine Science-Fiction, und es könnte früher passieren, als wir denken. Projekt 01, ein Open-Source-Ökosystem für KI-Geräte, hat kürzlich einen KI-Assistenten namens 01 Light auf den Markt gebracht. „Das 01 Light ist eine tragbare Sprachschnittstelle, die Ihren Heimcomputer steuert“, schrieb das Unternehmen auf X. Es kann Ihren Bildschirm sehen, Ihre Apps verwenden und neue Fähigkeiten erlernen.“

OpenAI hat ein Wettrüsten ausgelöst und unsere Sicherheit ist das Opfer

Einen persönlichen KI-Assistenten zu haben, könnte ziemlich aufregend sein. Es ist jedoch von entscheidender Bedeutung, dass Sicherheitsbedenken umgehend angegangen werden. Entwickler müssen das System und den Code gründlich auf Schwachstellen prüfen, um potenzielle Angriffe zu verhindern. Wenn dieser Agent böswilligen Akteuren zum Opfer fällt, könnte Ihr gesamtes Leben gefährdet sein – nicht nur Ihre Daten, sondern auch alle damit verbundenen Personen oder Organisationen.

Können wir uns schützen?

Ab Ende März hat das US-Repräsentantenhaus eine strenge Einschränkung für die Nutzung von Microsofts Copilot durch seine gesetzgebenden Mitarbeiter eingeführt.

Laut Catherine Szpindor, Chief Administrative Officer des Repräsentantenhauses, wurde die Microsoft Copilot-App vom Amt für Cybersicherheit als potenzielles Risiko identifiziert, da sie unbeabsichtigt Daten des Repräsentantenhauses an nicht autorisierte Cloud-Dienste übertragen kann.

Anfang April veröffentlichte das Cyber ​​Safety Review Board (CSRB) einen Bericht, in dem Microsoft eine Reihe von Sicherheitslücken vorgeworfen wurde, die es chinesischen Hackern ermöglichten, im Sommer 2023 in die E-Mail-Konten amerikanischer Regierungsbeamter einzudringen. Diese Vorfälle waren vermeidbar und sollten vermieden werden wurden verhindert.

Basierend auf den Ergebnissen des Berichts sind die aktuellen Sicherheitspraktiken von Microsoft unzureichend und erfordern erhebliche Verbesserungen, die sich auch auf das Copilot-Produkt auswirken können.

Mehrere Technologieunternehmen wie Apple, Amazon, Samsung und Spotify sowie Finanzinstitute wie JPMorgan, Citi und Goldman Sachs haben zuvor die Nutzung von KI-Assistenten durch ihre Mitarbeiter eingeschränkt.

Im vergangenen Jahr haben sich Technologiegiganten wie OpenAI und Microsoft verpflichtet, ethisch einwandfreie künstliche Intelligenz zu entwickeln und zu nutzen. Bisher wurden jedoch keine nennenswerten Schritte in diese Richtung unternommen.

Es reicht nicht aus, Verpflichtungen einzugehen. Stattdessen brauchen Behörden und Entscheidungsträger konkrete Maßnahmen. In der Zwischenzeit ist es ratsam, die Weitergabe vertraulicher persönlicher oder geschäftlicher Daten zurückzuhalten.

Wenn wir alle auf den gemeinsamen Einsatz von Bots verzichten, erhöhen wir möglicherweise unsere Chancen, gehört zu werden, und zwingen Unternehmen und Entwickler dazu, unserer Sicherheit Priorität einzuräumen, indem wir die erforderlichen Sicherheitsfunktionen verbessern.

Dr. Merav Ozair is a guest author for CryptoMoon and is developing and teaching emerging technologies courses at Wake Forest University and Cornell University. She was previously a FinTech professor at Rutgers Business School, where she taught courses on Web3 and related emerging technologies. She is a member of the academic advisory board at the International Association for Trusted Blockchain Applications (INATBA) and serves on the advisory board of EQM Indexes — Blockchain Index Committee. She is the founder of Emerging Technologies Mastery, a Web3 and AI end-to-end consultancy shop, and holds a PhD from Stern Business School at NYU.

Dieser Artikel dient allgemeinen Informationszwecken und ist nicht als Rechts- oder Anlageberatung gedacht und sollte auch nicht als solche verstanden werden. Die hier geäußerten Ansichten, Gedanken und Meinungen stammen ausschließlich vom Autor und spiegeln nicht unbedingt die Ansichten und Meinungen von CryptoMoon wider.

Weiterlesen

2024-04-10 23:53