Die US -Regierung wird künstliche Intelligenzstandards und Richtlinien entwickeln
Die Biden -Administration gab am 19. Dezember bekannt, dass sie den ersten Schritt schriftlich wichtige Standards und Richtlinien für die sichere Bereitstellung generativer künstlicher Intelligenz und zum Testen und Schutz von Systemen macht.
Das National Institute of Standards and Technology (NIST) des US -Handelsministeriums hat angekündigt, vor dem 2. Februar die öffentliche Meinung zu beantragen, um kritische Tests durchzuführen, die für die Sicherheit künstlicher Intelligenzsysteme von entscheidender Bedeutung sind.Der US -Handelsminister Raymond erklärte, dass diese Bemühungen im Oktober von Bidens Exekutivbefehl für künstliche Intelligenz getrieben wurden, um "Branchenstandards in Bezugdieser sich schnell entwickelnden Technologie. "
NIST entwickelt Richtlinien für die Bewertung künstlicher Intelligenz, die Förderung der Entwicklung von Standards und die Bereitstellung eines Testumfelds für die Bewertung künstlicher Intelligenzsysteme.Diese Anfrage beantragt Meinungen von KI -Unternehmen und der Öffentlichkeit über generatives KI -Risikomanagement und verringert das Risiko, dass KI fehlerhafte Informationen erzeugt.
Zuvor forderten Führungskräfte mehrerer Technologieunternehmen, darunter Tesla -CEO Musk, die Einrichtung künstlicher Regulierungsrahmen für künstliche Intelligenz, um potenzielle Risiken für die menschliche Zivilisation zu verhindern.The artificial intelligence executive order signed by Biden in October covers a wide range of aspects, including establishing new standards for artificial intelligence security, protecting the privacy of the American people, promoting equality and civil rights, protecting consumers and workers, promoting innovation and competition,und sicherzustellen, dass die Vereinigten Staaten an der Spitze des globalen Wettbewerbs für künstliche Intelligenz stehen.
Diese Verwaltungsverordnung zitiert auch das US Defense Production Act, nach dem Technologieunternehmen die US -Regierung informieren müssen, wenn sie künstliche Intelligenzsysteme entwickeln, die möglicherweise eine Bedrohung für die nationale Sicherheit, die wirtschaftliche Sicherheit oder die Sicherheit der öffentlichen Gesundheit darstellen.