IDENTIFYING OUTPUTS OF GENERATIVE ADVERSARIAL NETWORKS ACT 생성적 대립 신경망 결과물 식별법
An Act To direct the Director of the National Science Foundation to support research on the outputs that may be generated by generative adversarial networks, otherwise known as deepfakes, and other comparable techniques that may be developed in the future, and for other purposes. Be it enacted by the Senate and House of Representatives of the United States of America in Congress assembled, 국립과학재단 이사장에게 딥페이크(인공지능 의 영상 합성, 조작 기술)로 더 잘 알려진 생성 적 대립 신경망에 의해 생성될 수 있는 결과물 과 미래에 개발될 수 있는 그 밖의 유사한 기 술에 대한 연구 및 그 밖의 목적을 지원하도록 지시하기 위한 법률 미합중국의 상원과 하원은 합동회의에서 다음 의 법률을 제정한다.
This Act may be cited as the “Identifying Outputs of Generative Adversarial Networks Act” or the “IOGAN Act”.
Congress finds the following: (1) Gaps currently exist on the underlying research needed to develop tools that detect videos, audio files, or photos that have manipulated or synthesized content, including those generated by generative adversarial networks. Research on digital forensics is also needed to identify, preserve, recover, and analyze the provenance of digital artifacts (2) The National Science Foundation’s focus to support research in artificial intelligence through computer and information science and engineering, cognitive science and psychology, economics and game theory, control theory, linguistics, mathematics, and philosophy, is building a better understanding of how new technologies are shaping the society and economy of the United States. (3) The National Science Foundation has identified the “10 Big Ideas for NSF Future Investment” including “Harnessing the Data Revolution” and the “Future of Work at the Human-Technology Frontier”, with artificial intelligence is a critical component. (4) The outputs generated by generative adversarial networks should be included under the umbrella of research described in paragraph (3) given the grave national security and societal impact potential of such networks. (5) Generative adversarial networks are not likely to be utilized as the sole technique of artificial intelligence or machine learning capable of creating credible deepfakes. Other techniques may be developed in the future to produce similar outputs.
The Director of the National Science Foundation, in consultation with other relevant Federal agencies, shall support meritreviewed and competitively awarded research on manipulated or synthesized content and information authenticity, which may include— (1) fundamental research on digital forensic tools or other technologies for verifying the authenticity of information and detection of manipulated or synthesized content, including content generated by generative adversarial networks; (2) fundamental research on technical tools for identifying manipulated or synthesized content, such as watermarking systems for generated media; (3) social and behavioral research related to manipulated or synthesized content, including human engagement with the content; (4) research on public understanding and awareness of manipulated and synthesized content, including research on best practices for educating the public to discern authenticity of digital content; and (5) research awards coordinated with other federal agencies and programs, including the Defense Advanced Research Projects Agency and the Intelligence Advanced Research Projects Agency, with coordination enabled by the Networking and Information Technology Research and Development Program.
(a) IN GENERAL.—The Director of the National Institute of Standards and Technology shall support research for the development of measurements and standards necessary to accelerate the development of the technological tools to examine the function and outputs of generative adversarial networks or other technologies that synthesize or manipulate content. (b) OUTREACH.—The Director of the National Institute of Standards and Technology shall conduct outreach— (1) to receive input from private, public, and academic stakeholders on fundamental measurements and standards research necessary to examine the function and outputs of generative adversarial networks; and (2) to consider the feasibility of an ongoing public and private sector engagement to develop voluntary standards for the function and outputs of generative adversarial networks or other technologies that synthesize or manipulate content.
Not later than 1 year after the date of enactment of this Act, the Director of the National Science Foundation and the Director of the National Institute of Standards and Technology shall jointly submit to the Committee on Science, Space, and Technology of the House of Representatives, the Subcommittee on Commerce, Justice, Science, and Related Agencies of the Committee on Appropriations of the House of Representatives, the Committee on Commerce, Science, and Transportation of the Senate, and the Subcommittee on Commerce, Justice, Science, and Related Agencies of the Committee on Appropriations of the Senate a report containing— (1) the Directors’ findings with respect to the feasibility for research opportunities with the private sector, including digital media companies to detect the function and outputs of generative adversarial networks or other technologies that synthesize or manipulate content; and (2) any policy recommendations of the Directors that could facilitate and improve communication and coordination between the private sector, the National Science Foundation, and relevant Federal agencies through the implementation of innovative approaches to detect digital content produced by generative adversarial networks or other technologies that synthesize or manipulate content.
In this Act, the term “generative adversarial network” means, with respect to artificial intelligence, the machine learning process of attempting to cause a generator artificial neural network (referred to in this paragraph as the “generator” and a discriminator artificial neural network (referred to in this paragraph as a “discriminator”) to compete against each other to become more accurate in their function and outputs, through which the generator and discriminator create a feedback loop, causing the generator to produce increasingly higher-quality artificial outputs and the discriminator to increasingly improve in detecting such artificial outputs. Approved December 23, 2020.
IDENTIFYING OUTPUTS OF GENERATIVE ADVERSARIAL NETWORKS ACT 생성적 대립 신경망 결과물 식별법
An Act To direct the Director of the National Science Foundation to support research on the outputs that may be generated by generative adversarial networks, otherwise known as deepfakes, and other comparable techniques that may be developed in the future, and for other purposes. Be it enacted by the Senate and House of Representatives of the United States of America in Congress assembled, 국립과학재단 이사장에게 딥페이크(인공지능 의 영상 합성, 조작 기술)로 더 잘 알려진 생성 적 대립 신경망에 의해 생성될 수 있는 결과물 과 미래에 개발될 수 있는 그 밖의 유사한 기 술에 대한 연구 및 그 밖의 목적을 지원하도록 지시하기 위한 법률 미합중국의 상원과 하원은 합동회의에서 다음 의 법률을 제정한다.
이 법은 “「생성적 대립 신경망 결과물 식별 법」” 또는 “「IOGAN 법」”으로 인용할 수 있 다.
의회는 다음을 확인한다. (1) 생성적 대립 신경망에 의해 생성된 격차 를 포함하여 콘텐츠를 조작하거나 합성한 비 디오, 오디오 파일 또는 사진을 탐지하는 도구 를 개발하는 데 필요한 기본 연구에 격차가 현 재 존재한다. 디지털 포렌식에 대한 연구도 디지털화된 모 든 콘텐츠의 출처를 식별, 보존, 복구 및 분석 하기 위해서 필요하다. (2) 컴퓨터와 정보 과학 및 공학, 인지 과학 및 심리학, 경제학 및 게임이론, 제어이론, 언 어학, 수학, 그리고 철학을 통해 인공지능 연 구를 지원하는 국립과학재단은 신기술이 미국 의 사회와 경제를 형성하는 방법에 대한 더 나 은 이해를 구축하는 데 집중한다. (3) 국립과학재단은 “데이터 혁명 활용”과 “인 간과 기술 경계 분야 업무의 미래”를 포함하여 “국립과학재단의 미래 투자를 위한 10대 목 적”을 식별했으며 인공지능이 중요한 구성요 소임을 확인했다. (4) 생성적 대립 신경망에 의해 생성된 결과 는 그러한 신경망의 심각한 국가안보 및 사회 적 영향 가능성을 고려할 때 (3)에 설명된 연 구에 포함되어야 한다. (5) 생성적 대립 신경망은 신뢰할 수 있는 딥 페이크를 생성할 수 있는 인공지능 또는 기계 학습의 유일한 기술로 활용되지는 않을 것이 다. 향후 다른 기술이 유사한 결과를 산출하기 위 해 개발될 수 있다.
국립과학재단 이사장은 다른 관련 연방기관과 협의하여 조작·합성된 콘텐츠 및 정보의 진위 에 관하여 업적평가를 받았고 경쟁을 통해 선 정된 연구를 지원하여야 한다. 해당 연구에는 다음이 포함된다. (1) 생성적 대립 신경망에 의해 생성된 콘텐 츠를 포함하여 정보의 진위를 확인하고 조작· 합성된 콘텐츠를 탐지하기 위한 디지털 포렌 식 도구 또는 그 밖의 기술에 대한 기초 연구 (2) 생성된 미디어를 위한 워터마킹 시스템 등 조작·합성된 콘텐츠를 식별하기 위한 기술 도구에 대한 기초 연구 (3) 콘텐츠에 대한 인간의 참여를 포함하여 조작·합성된 콘텐츠와 관련된 사회 및 행동 연 구 (4) 디지털 콘텐츠의 진위를 식별하도록 대중 을 교육하기 위한 모범사례에 대한 연구를 포 함하여 조작·합성된 콘텐츠에 대한 대중의 이 해와 인식에 대한 연구 (5) 네트워킹 및 정보기술 연구개발사업으로 가능한 협의를 통해 국방첨단연구개발국 (DARPA) 및 정보첨단연구개발국(IARPA)을 포함한 다른 연방기관 및 사업과 협의된 연구 시상
(a) 일반사항. 국립표준기술연구소 이사장은 생성적 대립 신경망의 기능과 결과물 및 콘텐 츠를 합성·조작하는 그 밖의 기술을 조사하는 데 사용할 기술적 도구 개발을 가속하는 데 필 요한 측정 및 표준 개발 연구를 지원하여야 한 다. (b) 지원. 국립표준기술연구소 이사장은 다음 을 위한 지원활동을 수행하여야 한다. (1) 생성적 대립 신경망의 기능과 결과물을 조사하는 데 필요한 기본 측정 및 표준 연구에 대한 민간, 공공 및 학계 이해관계자의 의견 수렴 (2) 생성적 대립 신경망의 기능과 결과물 및 콘텐츠를 합성·조작하는 그 밖의 기술에 대한 자발적 표준을 개발하기 위해 진행 중인 공공 및 민간 부문 참여 가능성 고려
이 법 제정일부터 1년 이내에 국립과학재단 이사장과 국립표준기술연구소 이사장은 공동 으로 하원 과학우주기술위원회, 하원 세출위 원회의 상업·사법·과학 소위원회 및 관련 기 관, 상원 상무과학교통위원회 그리고 상원 세 출위원회의 상업·사법·과학 소위원회 및 관련 기관에 다음을 수록한 보고서를 제출하여야 한다. (1) 생성적 대립 신경망의 기능과 결과물 또 는 콘텐츠를 합성·조작하는 그 밖의 기술을 탐 지하기 위해 디지털 미디어 회사를 비롯하여 민간 부문과의 연구 기회 가능성에 대한 이사 장들의 사실 확인 (2) 생성적 대립 신경망 또는 콘텐츠를 합성· 조작하는 그 밖의 기술에 의해 생성된 디지털 콘텐츠를 탐지하기 위한 혁신적인 접근방식의 구현을 통해 민간 부문, 국립과학재단, 그리고 관련 연방기관 간의 의사소통과 조정을 촉진 하고 개선하는 이사장들의 모든 정책 권장사 항
이 법에서 “생성적 대립 신경망”이란 인공지능 과 관련하여 인공신경망 “생성기”와 인공신경 망 “판별기”가 기능과 결과물에 있어 더 정확 해지기 위해 서로 경쟁하도록 하는 기계학습 과정을 말하며 이를 통해 생성기와 판별기는 피드백 고리를 생성하고 생성기는 점점 더 높 은 품질의 인공 결과물을 산출하게 되며 판별 기는 이러한 인공 결과물을 점점 더 잘 탐지하 게 된다. 2020년 12월 23일 승인