상세 컨텐츠

본문 제목

생성형 인공 지능(GenAI): 개요, 쟁점 및 의회를 위한 질문

NLP and AI

by 腦fficial Pragmatist 2023. 10. 27. 11:50

본문

반응형
이 글은 미국 의회 CRS에서 발간한  Generative Artificial Intelligence: Overview, Issues, and Questions for Congress를 번역한 것입니다.

생성형 인공 지능(GenAI)은 새로운 콘텐츠를 생성할 수 있는 AI 시스템, 특히 머신 러닝(ML)을 사용하고 대량의 데이터로 학습된 시스템을 말합니다. 이와 달리 다른 AI 시스템은 얼굴 인식 이미지 데이터와 같이 데이터를 분류하거나 자율 주행 차량에서 사용되는 것과 같은 의사 결정을 내리는 것이 주요 목표일 수 있습니다. GenAI 시스템은 사용자가 텍스트를 입력하면(주로 사용자가 텍스트를 입력하는 방식으로) 텍스트 응답(예: OpenAI의 ChatGPT 및 Google의 Bard), 이미지(예: Stability AI의 Stable Diffusion 및 Midjourney의 자체 제목 프로그램), 동영상, 컴퓨터 코드 또는 음악을 포함한 다양한 출력을 생성할 수 있습니다.
 최근 많은 GenAI 도구가 공개되고 더욱 강력한 모델을 개발하기 위한 기업들의 경쟁이 치열해지면서 이러한 도구의 기능, 사용 시 발생할 수 있는 잠재적 우려, 거버넌스 및 규제에 대한 논의가 광범위하게 이루어지고 있습니다. 이 CRS 인포커스에서는 GenAI의 개발과 사용, GenAI 도구 사용으로 인해 제기되는 우려 사항, 의회의 고려 사항에 대해 설명합니다. 데이터 개인 정보 보호와 관련된 추가 고려 사항은 CRS 보고서 R47569, 생성적 인공 지능과 데이터 개인 정보 보호를 참조하세요: 크리스틴 E. 부쉬의 입문서를 참조하세요.


 배경

 AI는 일반적으로 불확실하고 다양한 조건에서 다양한 수준의 자율성을 가지고 학습, 문제 해결, 목표 달성 등 일반적으로 인간의 지능이 필요하다고 여겨지는 방식으로 작동하고 반응하는 컴퓨터화된 시스템으로 생각할 수 있습니다. AI 시스템은 자연어 처리, 로봇 공학, 안면 인식 등 다양한 기술, 방법론, 응용 분야를 포괄할 수 있습니다.
 많은 GenAI 도구의 기반이 되는 AI 기술은 수십 년에 걸친 연구의 결과물입니다. 예를 들어, 순환 신경망(RNN, 인간의 뇌를 느슨하게 모델링하여 순차적인 데이터에서 패턴을 감지하는 일종의 ML)은 1980~1990년대에 많은 개발과 개선의 시기를 거쳤습니다. RNN은 텍스트를 생성할 수 있지만, 긴 단어 문자열에 대한 문맥 정보를 유지하는 데 한계가 있고, 학습 속도가 느리며, 계산 능력이나 학습 데이터 크기를 늘려도 쉽게 확장되지 않습니다.
 최근의 기술 발전, 특히 2017년 Google 연구원들이 트랜스포머 아키텍처를 도입하고 2019년경부터 생성형 사전 학습 트랜스포머(GPT) 모델을 개선한 덕분에 GenAI 성능이 크게 향상되었습니다. 트랜스포머 모델은 단어 단위로 분석하는 대신 전체 문장 시퀀스를 처리하여 과거 정보를 '기억'하는 데 도움을 줍니다. 주의 또는 자기 주의라는 수학적 기법을 사용하여 데이터 요소가 순차적으로 멀리 떨어져 있어도 서로 영향을 주고받는 방식을 감지합니다. 이러한 방법을 통해 GPT 모델을 더 빠르게 학습하고, 컨텍스트를 더 효율적으로 이해하며, 확장성이 뛰어납니다.
 최근 GenAI 발전의 또 다른 중요한 요소는 대량의 데이터 가용성과 언어 모델의 크기입니다. 대규모 언어 모델(LLM)은 언어를 모델링하기 위해 수백만 또는 수십억 개의 매개변수(즉, 입력이 출력으로 변환되는 방식을 결정하는 모델 내 숫자)를 사용하는 AI 시스템입니다.
 수학적 최적화 기법과 대량의 데이터 및 계산 능력을 사용하여 이러한 매개변수를 반복적으로 조정하면 모델 성능이 향상됩니다.
 특히 GenAI 모델은 기본 학습 데이터의 스타일과 모양에 맞춰 작동합니다. 또한 개발자와 사용자가 예상하지 못했지만 모델이 커짐에 따라 드러나는 숨겨진 기능을 의미하는 과다 역량 보유( capability overhang )가 있는 것으로 나타났습니다.


 유익함과 우려

최근 GenAI 시스템(수천억 개의 파라미터 포함)의 규모가 커지면서 이전 시스템(수백만 개 또는 수십억 개의 파라미터 포함)에 비해 기능이 크게 향상되었습니다. 예를 들어, 2020년에 출시된 OpenAI의 GPT-3는 훈련 예시가 거의 또는 전혀 없이도 영어에서 프랑스어로 문장을 번역할 수 있으며, 해당 작업을 해결하도록 명시적으로 훈련된 이전 모델보다 뛰어난 성능을 보였습니다. 2023년에 출시된 GPT-4는 모의 대학원 및 전문직 시험 점수, 기존 ML 벤치마크 등 다양한 벤치마크에서 개선되었습니다.
 역사상 가장 빠르게 성장하는 소비자 애플리케이션으로 알려진 OpenAI의 ChatGPT는 GPT-3.5를 사용하며, 유료 구독자의 경우 가장 강력한 최신 버전인 GPT-4를 사용합니다. ChatGPT는 이메일, 에세이, 일상적인 대화 등 다양한 텍스트 출력을 생성할 수 있는 대화형 AI 챗봇입니다. Microsoft는 Bing 검색 엔진에 GPT4를 Bing Chat이라는 챗봇으로 통합했으며, 다른 수많은 챗봇도 GPT-3 및 GPT-4 모델을 사용합니다. GPT 모델 외에도 다른 LLM 챗봇으로는 Bard 챗봇에 사용된 Google의 PaLM 2(Pathways Language Model 2), SambaNova의 BLOOMChat에 사용된 Hugging Face의 BLOOM 모델 등이 있습니다.
 GenAI의 놀라운 능력에도 불구하고, 그 영향력이 커지면서 우려의 목소리도 커지고 있습니다. 예를 들어, 환각이라고도 불리는 GenAI의 지어내기 경향으로 인해 잘못된 정보를 생성하고 증폭시키거나 허위 정보를 생성하고 퍼뜨리는 데 사용될 수 있습니다. OpenAI는 GPT-4와 같은 강력한 모델조차도 "완전히 신뢰할 수 있는 것은 아니다"라며 "특히 고위험 상황에서 언어 모델 결과물을 사용할 때는 특정 사용 사례의 요구사항에 맞는 정확한 프로토콜(사람의 검토, 추가 맥락을 통한 근거 마련 또는 고위험 사용을 아예 피하는 등)을 통해 세심한 주의를 기울여야 한다"고 지적합니다. 또한 모델은 일반적으로 인터넷에서 스크랩한 대량의 데이터로 학습되기 때문에 이러한 데이터의 편견을 통합하고 반영하며 잠재적으로 증폭시킬 수 있습니다.
 교육 및 과학 연구와 같은 특정 GenAI 사용 사례에서는 윤리적이고 투명한 사용, 제한을 적용해야 하는지 여부와 그 효과, 탐지 도구의 정확성에 대한 의문도 제기되고 있습니다.
 분석가들은 GenAI 사용이 증가함에 따라 일자리와 생산성에 어떤 영향을 미칠지 고려하기 시작했습니다. 예를 들어, 이러한 도구가 기존 업무에서 근로자의 기술을 보완하고 새로운 일자리를 창출할 수 있을까요? GenAI가 일부 직무를 자동화하여 근로자를 대체할까요? 이는 자동화 및 AI 기술에 대한 오랜 우려였지만, 최신 GenAI 모델의 속도, 기능 및 광범위한 사용으로 인해 이러한 우려가 더욱 커졌습니다.
 LLM은 광범위한 데이터로 학습된 모델로서 다양한 다운스트림 작업에 적용할 수 있는 범용 AI라고도 불리는 기초 모델이라는 특징이 있습니다. (이와는 대조적으로 다른 많은 AI 시스템은 특정 목적을 위해 구축, 학습 및 사용됩니다.) 스탠포드 대학 인간중심 AI 연구소에서 설명한 것처럼, 기초 모델은 다양한 영역에 걸쳐 여러 AI 시스템에 구축되거나 통합될 수 있으며, 편향성을 줄이고 견고성을 개선하기 위한 노력 집중과 같은 장점과 보안 실패 또는 불평등이 다운스트림 애플리케이션으로 유출되어 피해가 증폭되는 단점이 모두 발생할 수 있습니다.


연방 인공지능 법안 및 GenAI 법안

이전 의회에서 인공지능에 초점을 맞추거나 인공지능 관련 조항을 포함하는 수많은 법안이 제정되었습니다. 예를 들어, 2020년 국가 인공지능 이니셔티브 법안(P.L. 116-283의 Division E)은 국가 인공지능 이니셔티브와 관련 연방 사무소 및 위원회의 설립을 명문화했습니다. 118대 의회에서는 최소 50개의 AI 관련 법안이 발의되었습니다.
 특히 GenAI와 관련하여, 생성적 적대적 네트워크의 결과물 식별 법안(Identifying Outputs of Generative Adversarial Networks, IOGAN)(P.L. 116258)은 생성적 적대적 네트워크에 대한 연구에 대한 연방 정부의 지원을 지시했습니다. 118대 의회에서는 정치 광고에서 GenAI 사용의 투명성과 책임성, GenAI 결과물 공개, 디지털 플랫폼에 대한 연방 정부의 감독과 관련된 법안을 포함하여 GenAI를 구체적으로 포함하는 법안이 최소 4건 이상 발의되었습니다.

의회에 대한 잠재적 질문 

민간 부문과 마찬가지로 연방 기관과 의회는 콘텐츠 제작 및 요약, 연설문 작성, 법안 초안 작성과 같은 사무 업무에 GenAI를 활용할 수 있는지에 대한 잠재력을 포함하여 GenAI 사용을 테스트하기 시작했습니다. 동시에 의회는 GenAI 기술에 대한 가드레일을 구현할지 여부와 방법을 고려하기 시작했습니다. 이러한 작업이 계속되고 GenAI 도구의 추가 개발과 사용이 증가함에 따라 의회는 다양한 질문과 잠재적 조치를 고려할 수 있습니다.
 - 편견과 사용 윤리. 민간 및 공공 부문은 AI 평가 및 위험 관리를 위한 연방 지침 문서와 프레임워크를 어떻게 사용하여 GenAI 시스템의 편견을 해결하고 위험을 관리하고 있나요?
 고위험 시나리오(예: 정신 건강 치료 또는 포렌식 스케치 생성)에서 GenAI 모델의 배포를 제한해야 하나요?
 - 테스트와 투명성. 오늘날 배포되는 가장 큰 모델인 GPT-4 및 PaLM 2는 비공개 소스 독점 모델입니다. 많은 기업이 내부 테스트를 수행하고 있으며 외부 검증 및 테스트 옵션을 평가하고 있다고 말하지만, 의회는 독립적인 테스트 및 결과 보고를 지원하거나 요구할지 여부와 방법을 고려할 수 있습니다.
 - 경제 및 인력에 미치는 영향. 산업계, 민간 부문, 학계의 연구자들은 GenAI가 노동에 미칠 수 있는 잠재적인 파급 효과를 분석하기 시작했습니다. 미국 국립과학아카데미는 현재 자동화와 미국 노동력에 대한 연구를 업데이트하고 있습니다.
 노동력. 이러한 연구 결과를 평가하는 것 외에도 의회는 GenAI의 구현으로 인한 직무 변화에 대응하여 미국 인력의 재교육 또는 숙련도 향상을 지원하는 데 있어 적절한 연방 정부의 역할을 고려할 수 있습니다. 또한 정부 자체 인력의 AI 전문성을 높일지 여부와 방법을 고려할 수도 있습니다.
 - 연구와 경쟁. 1,750억 개의 매개변수가 있는 GPT-3와 같은 GenAI 모델의 학습 비용은 460만 달러가 넘을 것으로 추산됩니다. 일부 분석가들은 비용, 독점 데이터 사용, 방대한 컴퓨팅 성능에 대한 접근성 때문에 최첨단 머신러닝을 훈련할 수 있는 기업(예: 대형 기술 기업)과 그렇지 않은 기업(예: 비영리단체, 스타트업, 대학) 사이에 격차가 생길 것이라고 주장했습니다. 의회는 국가 인공지능 연구 자원 태스크포스의 최종 보고서에 권장 사항을 명문화하는 등 데이터, 교육 및 컴퓨팅 리소스에 대한 액세스를 지원하는 방법을 고려할 수 있습니다.
 - 감독 및 규제. 의회는 혁신과 국제 경쟁력을 지원하면서 GenAI 기술을 어떻게 규제할 수 있을까요? 연방 규제 기관은 위험을 최소화하면서 혜택을 지원하기 위해 GenAI 도구를 적절히 감독하고 규제할 수 있는 권한과 자원을 보유하고 있나요? 그렇지 않다면 어떤 추가 권한이 필요한가요? GenAI에 대한 연방정부의 감독 및 규제는 보다 광범위한 AI 기술에 대한 감독 및 규제와 어떻게 구별될 수 있나요?

로리 A. 해리스(Laurie A. Harris), 과학 및 기술 정책 분석가

 

반응형