Home Marketing NTIA erhält über 1.450 Kommentare zur KI-Verantwortung

NTIA erhält über 1.450 Kommentare zur KI-Verantwortung

0
NTIA erhält über 1.450 Kommentare zur KI-Verantwortung

Die Nationwide Telecommunications and Info Administration (NTIA), eine Abteilung des US-Handelsministeriums, forderte einen öffentlichen Kommentar zu Strategien zur Förderung der Rechenschaftspflicht in vertrauenswürdigen Systemen der künstlichen Intelligenz (KI).

Ziel warfare es, Suggestions von Interessengruppen einzuholen, um Vorschläge für einen bevorstehenden Bericht über KI-Garantie- und Rechenschaftsrahmen zu formulieren. Diese Vorschläge könnten als Leitfaden für künftige Bundes- und Nichtregierungsvorschriften dienen.

Die Förderung einer vertrauenswürdigen KI, die Menschenrechte und demokratische Grundsätze wahrt, warfare laut NTIA-Anfrage ein Hauptschwerpunkt des Bundes. Dennoch blieben Lücken bestehen, um sicherzustellen, dass KI-Systeme verantwortungsbewusst sind und vertrauenswürdige KI-Regeln in Bezug auf Equity, Sicherheit, Datenschutz und Transparenz einhalten.

Rechenschaftsmechanismen wie Audits, Folgenabschätzungen und Zertifizierungen könnten die Gewissheit bieten, dass KI-Systeme vertrauenswürdige Kriterien einhalten. NTIA stellte jedoch fest, dass die Umsetzung einer wirksamen Rechenschaftspflicht immer noch Herausforderungen und Komplexität mit sich bringt.

NTIA diskutierte eine Vielzahl von Überlegungen rund um das Gleichgewicht zwischen vertrauenswürdigen KI-Zielen, Hindernissen bei der Umsetzung von Verantwortung, komplexen KI-Liefer- und Wertschöpfungsketten und Schwierigkeiten bei der Standardisierung von Messungen.

Über 1.450 Kommentare zur KI-Verantwortung

Kommentare wurden bis zum 12. Juni entgegengenommen, um bei der Gestaltung des zukünftigen NTIA-Berichts zu helfen und mögliche politische Entwicklungen im Zusammenhang mit der Rechenschaftspflicht von KI zu steuern.

Die Anzahl der Kommentare überstieg 1.450.

Kommentare, die anhand von Schlüsselwörtern durchsucht werden können, enthalten gelegentlich Hyperlinks zu Artikeln, Briefen, Dokumenten und Klagen über die möglichen Auswirkungen von KI.

Technologieunternehmen reagieren auf NTIA

Die Kommentare enthielten Suggestions der folgenden Technologieunternehmen, die KI-Produkte für den Arbeitsplatz entwickeln möchten.

OpenAI-Temporary an die NTIA

In dem Temporary von OpenAI begrüßte es die Formulierung des Themas durch NTIA als ein „Ökosystem“ notwendiger Maßnahmen zur KI-Rechenschaftspflicht, um vertrauenswürdige künstliche Intelligenz zu gewährleisten.

OpenAI-Forscher gingen davon aus, dass ein ausgereiftes KI-Rechenschaftsökosystem aus allgemeinen Rechenschaftselementen bestehen würde, die allgemein über Domänen hinweg gelten, und vertikalen Elementen, die auf bestimmte Kontexte und Anwendungen zugeschnitten sind.

OpenAI konzentriert sich auf die Entwicklung von Basismodellen – breit anwendbare KI-Modelle, die aus umfangreichen Datensätzen lernen.

Sie hält es für notwendig, bei diesen Modellen einen sicherheitsorientierten Ansatz zu verfolgen, unabhängig davon, in welchen bestimmten Bereichen sie eingesetzt werden könnten.

OpenAI hat mehrere aktuelle Ansätze zur KI-Verantwortung detailliert beschrieben. Es veröffentlicht „Systemkarten“, um Transparenz über erhebliche Leistungsprobleme und Risiken neuer Modelle zu bieten.

Es führt qualitative „Pink-Teaming“-Exams durch, um Fähigkeiten und Fehlermodi zu prüfen. Es führt quantitative Bewertungen für verschiedene Fähigkeiten und Risiken durch. Und es gibt klare Nutzungsrichtlinien, die schädliche Nutzungen verbieten, sowie Durchsetzungsmechanismen.

OpenAI erkannte mehrere bedeutende ungelöste Herausforderungen an, darunter die Bewertung potenziell gefährlicher Fähigkeiten im Zuge der Weiterentwicklung der Modellfähigkeiten.

Es wurden offene Fragen rund um unabhängige Bewertungen seiner Modelle durch Dritte diskutiert. Und es wurde darauf hingewiesen, dass für zukünftige Stiftungsmodelle mit erheblichen Risiken möglicherweise Registrierungs- und Lizenzanforderungen erforderlich sein könnten.

Während sich die aktuellen Praktiken von OpenAI auf Transparenz, Exams und Richtlinien konzentrieren, schien das Unternehmen offen für eine Zusammenarbeit mit politischen Entscheidungsträgern zu sein, um robustere Maßnahmen zur Rechenschaftspflicht zu entwickeln. Es wurde darauf hingewiesen, dass für kompetente KI-Modelle möglicherweise maßgeschneiderte Regulierungsrahmen erforderlich sind.

Insgesamt spiegelte die Antwort von OpenAI die Überzeugung wider, dass eine Kombination aus Selbstregulierungsbemühungen und Regierungsrichtlinien eine entscheidende Rolle bei der Entwicklung eines effektiven Ökosystems für KI-Verantwortung spielen würde.

Microsoft-Temporary an die NTIA

In seiner Antwort behauptete Microsoft, dass Rechenschaftspflicht ein grundlegendes Aspect von Rahmenwerken sein sollte, um die von der KI ausgehenden Risiken zu bewältigen und gleichzeitig ihre Vorteile zu maximieren. Unternehmen, die KI entwickeln und nutzen, sollten für die Auswirkungen ihrer Systeme verantwortlich sein, und Aufsichtsbehörden benötigen die Autorität, das Wissen und die Werkzeuge, um eine angemessene Aufsicht auszuüben.

Microsoft skizzierte Lehren aus seinem Accountable AI-Programm, das sicherstellen soll, dass Maschinen unter menschlicher Kontrolle bleiben. Die Rechenschaftspflicht ist in ihrer Governance-Struktur und dem Accountable AI-Normal verankert und umfasst:

  • Durchführung von Folgenabschätzungen zur Identifizierung und Behebung potenzieller Schäden.
  • Zusätzliche Aufsicht für Hochrisikosysteme.
  • Dokumentation, um sicherzustellen, dass die Systeme ihren Zweck erfüllen.
  • Daten-Governance- und Managementpraktiken.
  • Förderung der menschlichen Führung und Kontrolle.
  • Microsoft beschrieb, wie es Pink Teaming durchführt, um potenzielle Schäden und Ausfälle aufzudecken, und veröffentlicht Transparenzhinweise für seine KI-Dienste. Die neue Bing-Suchmaschine von Microsoft wendet diesen Ansatz der verantwortungsvollen KI an.

Microsoft hat sechs Empfehlungen zur Förderung der Rechenschaftspflicht ausgesprochen:

  • Bauen Sie auf dem AI Risk Administration Framework des NIST auf, um den Einsatz von Rechenschaftsmechanismen wie Folgenabschätzungen und Pink Teaming zu beschleunigen, insbesondere für KI-Systeme mit hohem Risiko.
  • Entwickeln Sie einen rechtlichen und regulatorischen Rahmen auf Foundation des KI-Tech-Stacks, einschließlich Lizenzanforderungen für Stiftungsmodelle und Infrastrukturanbieter.
  • Fördern Sie die Transparenz als Voraussetzung für Rechenschaftspflicht, beispielsweise durch ein Register von KI-Systemen mit hohem Risiko.
  • Investieren Sie in den Kapazitätsaufbau für Gesetzgeber und Regulierungsbehörden, um mit den KI-Entwicklungen Schritt zu halten.
  • Investieren Sie in die Forschung, um die Benchmarks für die KI-Bewertung, die Erklärbarkeit, die Mensch-Pc-Interaktion und die Sicherheit zu verbessern.
  • Entwickeln und richten Sie sich an internationalen Requirements aus, um ein Assurance-Ökosystem zu untermauern, einschließlich ISO-KI-Requirements und Content material-Provenance-Requirements.
  • Insgesamt schien Microsoft bereit zu sein, mit Stakeholdern zusammenzuarbeiten, um wirksame Ansätze zur KI-Verantwortung zu entwickeln und umzusetzen.

Insgesamt schien Microsoft bereit zu sein, mit Stakeholdern zusammenzuarbeiten, um wirksame Ansätze zur KI-Verantwortung zu entwickeln und umzusetzen.

Google-Temporary an die NTIA

Google begrüßte in seiner Antwort die Anfrage von NTIA nach Kommentaren zu den Richtlinien zur KI-Rechenschaftspflicht. Es erkannte die Notwendigkeit sowohl der Selbstregulierung als auch der Governance an, um eine vertrauenswürdige KI zu erreichen.

Google hob seine eigene Arbeit zur KI-Sicherheit und -Ethik hervor, beispielsweise eine Reihe von KI-Grundsätzen, die sich auf Equity, Sicherheit, Datenschutz und Transparenz konzentrieren. Google hat auch intern verantwortungsvolle KI-Praktiken implementiert, einschließlich der Durchführung von Risikobewertungen und Fairnessbewertungen.

Google befürwortete die Nutzung bestehender regulatorischer Rahmenbedingungen, sofern anwendbar, und risikobasierte Interventionen für Hochrisiko-KI. Es wurde die Verwendung eines kollaborativen, konsensbasierten Ansatzes zur Entwicklung technischer Requirements gefördert.

Google stimmte zu, dass Rechenschaftsmechanismen wie Audits, Bewertungen und Zertifizierungen die Sicherheit vertrauenswürdiger KI-Systeme gewährleisten könnten. Es wurde jedoch darauf hingewiesen, dass diese Mechanismen bei der Implementierung vor Herausforderungen stehen, einschließlich der Bewertung der Vielzahl von Aspekten, die sich auf die Risiken eines KI-Programs auswirken.

Google empfahl, die Mechanismen zur Rechenschaftspflicht auf wichtige Risikofaktoren zu konzentrieren und schlug vor, Ansätze zu verwenden, die auf die wahrscheinlichsten Möglichkeiten abzielen, wie KI-Systeme erhebliche Auswirkungen auf die Gesellschaft haben könnten.

Google empfahl ein „Hub-and-Spoke“-Modell der KI-Regulierung, bei dem sektorale Regulierungsbehörden die KI-Implementierung unter Anleitung einer zentralen Behörde wie NIST überwachen. Es unterstützte die Klärung der Anwendung bestehender Gesetze auf KI und die Förderung verhältnismäßiger risikobasierter Rechenschaftspflichtmaßnahmen für Hochrisiko-KI.

Wie andere glaubte Google, dass es einer Mischung aus Selbstregulierung, technischen Requirements und begrenzten, risikobasierten Regierungsrichtlinien bedarf, um die Rechenschaftspflicht der KI voranzutreiben.

Anthropischer Temporary an die NTIA

In der Antwort von Anthropic wurde die Überzeugung beschrieben, dass ein robustes Ökosystem für KI-Verantwortung Mechanismen erfordert, die auf KI-Modelle zugeschnitten sind. Es wurden mehrere Herausforderungen identifiziert, darunter die Schwierigkeit, KI-Systeme streng zu bewerten und auf wise Informationen zuzugreifen, die für Audits benötigt werden, ohne die Sicherheit zu beeinträchtigen.

Von Anthropic unterstützte Finanzierung für Folgendes:

  • Modellbewertungen: Aktuelle Bewertungen sind ein unvollständiger Flickenteppich und erfordern spezielles Fachwissen. Es wurde empfohlen, Fähigkeitsbewertungen zu standardisieren, die sich auf Risiken wie Täuschung und Autonomie konzentrieren.
  • Interpretierbarkeitsforschung: Zuschüsse und Fördermittel für die Interpretierbarkeitsforschung könnten transparentere und verständlichere Modelle ermöglichen. Regelungen, die eine Interpretierbarkeit fordern, sind derzeit jedoch nicht umsetzbar.
  • Vorregistrierung großer KI-Trainingsläufe: KI-Entwickler sollten große Trainingsläufe den Aufsichtsbehörden melden, um sie unter angemessenen Vertraulichkeitsschutzmaßnahmen über neue Risiken zu informieren.
  • Externes Pink Teaming: Obligatorische kontradiktorische Prüfung von KI-Systemen vor der Veröffentlichung, entweder durch eine zentralisierte Organisation wie NIST oder über den Zugang von Forschern. Allerdings sind die Pink-Teaming-Talente derzeit in privaten KI-Laboren angesiedelt.
  • Prüfer mit technischem Fachwissen, Sicherheitsbewusstsein und Flexibilität: Prüfer benötigen umfassende Erfahrung im maschinellen Lernen und müssen gleichzeitig Lecks oder Hackerangriffe verhindern, müssen aber auch innerhalb von Einschränkungen agieren, die die Wettbewerbsfähigkeit fördern.
  • Anthropic empfahl Scoping-Maßnahmen zur Rechenschaftspflicht basierend auf den Fähigkeiten eines Modells und nachgewiesenen Risiken, die durch gezielte Fähigkeitsbewertungen bewertet wurden. Es wurde vorgeschlagen, die IP-Eigentumsrahmen für KI zu klären, um eine faire Lizenzierung zu ermöglichen, und Leitlinien zu Kartellfragen bereitzustellen, um Sicherheitskooperationen zu ermöglichen.
  • Insgesamt betonte Anthropic die Schwierigkeiten bei der strengen Bewertung und dem Zugriff auf Informationen über fortschrittliche KI-Systeme aufgrund ihrer Sensibilität. Es wurde argumentiert, dass die Bewertung der Finanzierungsfähigkeiten, die Erforschung der Interpretierbarkeit und der Zugang zu Rechenressourcen für ein wirksames Ökosystem der KI-Verantwortung, das der Gesellschaft zugute kommt, von entscheidender Bedeutung sind.

Was Sie als Nächstes erwartet

Die Antworten auf die NTIA-Anfrage nach Kommentaren zeigen, dass KI-Unternehmen zwar die Bedeutung der Rechenschaftspflicht erkennen, es aber immer noch offene Fragen und Herausforderungen bei der effektiven Implementierung und Skalierung von Rechenschaftsmechanismen gibt.

Sie weisen auch darauf hin, dass sowohl Selbstregulierungsbemühungen von Unternehmen als auch Regierungsrichtlinien eine Rolle bei der Entwicklung eines robusten Ökosystems für KI-Verantwortung spielen werden.

Für die Zukunft wird erwartet, dass der NTIA-Bericht Empfehlungen zur Weiterentwicklung des KI-Rechenschaftsökosystems enthält, indem bestehende Selbstregulierungsbemühungen, technische Requirements und Regierungsrichtlinien genutzt und darauf aufgebaut werden. Der Enter der Stakeholder im Rahmen des Kommentarprozesses wird wahrscheinlich zur Gestaltung dieser Empfehlungen beitragen.

Die Umsetzung von Empfehlungen in konkrete politische Änderungen und Branchenpraktiken, die die Artwork und Weise verändern können, wie KI entwickelt, eingesetzt und überwacht wird, erfordert jedoch eine Koordination zwischen Regierungsbehörden, Technologieunternehmen, Forschern und anderen Interessengruppen.

Der Weg zu einer ausgereiften KI-Verantwortung dürfte lang und schwierig sein. Aber diese ersten Schritte zeigen, dass es einen Schwung gibt, dieses Ziel zu erreichen.

Ausgewähltes Bild: EQRoy/Shutterstock

LEAVE A REPLY

Please enter your comment!
Please enter your name here