Auf Druck der US-Regierung haben sich führende AI-Unternehmen (OpenAI, Google, Amazon, Microsoft, Anthropic, Inflection, Meta) auf Sicherheitsstandards geeinigt. Zu den Maßnahmen gehören u.a.: Durchführung interner und externer Sicherheitstests an KI-Systemen vor deren Markteinführung. Austausch von Informationen über das Management von KI-Risiken mit der Industrie, Regierungen und Akademikern. Entwicklung robuster technischer Mechanismen zur Gewährleistung, dass Nutzer erkennen können, welcher Inhalt von KI generiert wurde. Forschungspriorisierung hinsichtlich der potenziellen gesellschaftlichen Risiken der KI. IBM plant 7800 Jobs durch AI zu ersetzen Solche Meldungen häufen sich zunehmend. Nachdem Dropbox angekündigt hat, Angestellte durch KI zu ersetzen, plant auch IBM die Automatisierung von Back-Office-Jobs, wie beispielsweise in HR oder Accounting. Dies sind sicherlich die ersten Anzeichen eines sich durch KI stark verändernden Arbeitsmarktes. Bei der Ersetzung von Jobs durch KI-Automatisierung darf man nicht vergessen, dass durch KI auch viele neue Jobs entstehen werden. OpenAI hat in einem Blog-Post mitgeteilt, dass sie davon ausgehen, dass AI eine Superintelligenz (deutlich intelligenter als Menschen) innerhalb des nächsten Jahrzehnts erreichen wird. ? “Die enorme Macht der Superintelligenz könnte sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zu ihrer Auslöschung führen.” Um AI-Systeme mit Superintelligenz kontrollieren zu können, hat OpenAI ein Superalignment-Team angekündigt. Bisher werden AI-Systeme kontrolliert und angepasst durch menschliches Feedback. Menschen überwachen also die AI. Das Superalignment-Team soll neue Strategien für die Kontrolle von AI-Modellen mit Superintelligenz entwickeln. Die Hauptstrategie soll sein, eine AI zu entwickeln, die andere AI’s überwacht und erforschen kann, wie man AI unter Kontrolle hält. Eine AI soll also dann AI überwachen So soll Superintelligenz sicher gemacht werden und an den menschlichen Werten ausgerichtet sein. Auf Druck der US-Regierung haben sich führende AI-Unternehmen (OpenAI, Google, Amazon, Microsoft, Anthropic, Inflection, Meta) auf Sicherheitsstandards geeinigt. Zu den Maßnahmen gehören u.a.: Durchführung interner und externer Datenschutzformular von ChatGPT um personenbezogene Daten löschen zu lassen Angesichts des aktuellen Bildes ist es denkbar, dass KI-Systeme innerhalb der nächsten zehn Jahre in den meisten Bereichen das Qualifikationsniveau der Experten übertreffen und so viel produktive Aktivitäten ausführen werden wie eines der größten Unternehmen von heute. Darum ist jede Studie, die die bisherigen Auswirkungen von KI auf den Arbeitsmarkt unter die Lupe nimmt, besonders spannend, um immerhin einen vagen Ausblick auf die Zukunft zu werfen. So auch der Microsoft New Future of Work Report 2023. Auch wenn eine Studie von einem der AI-Big-Player sicher kritisch betrachtet werden muss, so gibt sie dennoch einige interessante Einblicke. ADie Federal Communications Commission (FCC) hat neue Regelungen vorgeschlagen, um den Einsatz von KI-generierten Stimmen in betrügerischen Robocalls einzudämmen. Künftig müssen KI-Stimmen zu Beginn eines Anrufs deutlich machen, dass sie künstlich sind. Die FCC prüft zudem verbesserte Anruf-Filter und KI-basierte Erkennungstools, um solche Anrufe zu kennzeichnen. Diese Maßnahmen sollen gezielte Betrügereien verhindern, da KI-Stimmen immer menschlicher klingen und somit schwieriger zu erkennen sind. Da die Durchsetzung ein ständiger Wettlauf gegen Betrüger sein dürfte, ist Aufklärung die beste Verteidigung. Zwei Studenten demonstrieren in einem Experiment, dass AI-Brillen sich ideal als Stalking-Instrumente nutzen lassen. Was wie die Handlung eines dystopischen Science-Fiction-Romans klingt, ist Realität. Die Studenten AnhPhu Nguyen und Caine Ardayfio kombinierten Metas Ray-Ban-Smart-Brillen mit maßgeschneiderter Software, um persönliche Informationen über Fremde abzurufen. Sie setzten Gesichtserkennung und Reverse-Bildersuche ein, um Namen, Adressen und weitere Details zu ermitteln. Auf dem Campus identifizierten die Studenten auf diese Weise erfolgreich verschiedene Personen und deren persönliche Daten. An Approach to Technical AGI Safety and Security - Google DeepMind - 2025. KI und insbesondere AGI werden eine transformative Technologie sein. Wie bei jeder transformativen Technologie AGI bietet erhebliche Vorteile, birgt aber auch erhebliche Risiken. Dazu gehören auch die Risiken schwerer Schäden: Vorfälle, die folgenreich genug sind, um der Menschheit erheblichen Schaden zuzufügen. In diesem Dokument wird unser Ansatz für Aufbau von AGI, der schwere Schäden vermeidet.