본문 바로가기
생활의 구성

챗GPT 인공지능(AI)의 위험성, 규제의 필요성 강조한 오픈AI CEO

by 난파선장 2023. 5. 18.
반응형

AI의 잠재적 위험과 규제 필요성에 대해 논의하는 자리에서, 오픈 AI사 CEO 샘 올트먼은 AI 모델의 발전 가능성과 동시에 그것이 가지는 위험성에 대해 인식하고 있음을 밝혔습니다.

대화형 인공지능 챗GPT를 처음 개발한 회사의 최고경영자가 인공지능의 위험성과 규제에 대해 언급하는 건, 그만큼 인공지능의 악용이 심각한 결과를 초래할 수 있다는 우려를 보여준다 하겠습니다.

미국에서 열린 AI 청문회 소식과 샘 올트만 오픈 AI사 최고경영자 및 정치권의 발언을 살펴봅니다.

OpenAI_홈페이지의_챗GPT_소개화면
챗GPT 소개화면, 출처: OpenAI 홈페이지

 

챗GPT 인공지능(AI)의 위험성, 규제의 필요성 강조한 오픈AI CEO

     

    인공지능(AI) 관련 미국의 청문회


    미국 의회가 16일(현지시간) 처음으로 AI 청문회를 개최했습니다.
    이번 청문회는 AI의 잠재적 위험규제 필요성에 대해 논의하기 위한 자리로 상원 법제사법위원회 리차드 블루먼솔 위원장의 주재로 진행되었습니다.

    리차드 블루먼솔 위원장은 챗GPT가 원고를 쓰고 AI 음성 복제 소프트웨어를 사용해 만든 자신의 목소리와 유사한 연설 녹음파일을 틀며, 인공지능 기술로 만들어진 가짜 정보 가짜 뉴스들이 유포될 경우의 혼란과 피해를 우려했습니다.


    샘 알트먼의 AI 우려와 제안

    청문회에 출석한 챗GPT의 개발자 샘 알트먼 오픈 AI 최고경영자(CEO)는 "AI가 우리 삶의 거의 모든 측면을 개선할 것이란 믿음으로 설립됐지만 동시에 심각한 위험도 존재한다며, 인공지능 기술이 악용되면 상당히 잘못될 수 있고 그런 일이 일어나지 않도록 목소리를 내고, 정부와 협력하고 싶다."고 피력했습니다.

    가장 우려하는 일 중 하나로 AI 모델이 조작을 통해 일종의 일대일 대화형 허위 정보를 제공할 수 있는 능력을 들며, 책임 문제에 있어 어떤 체계를 설정할지가 중요한 문제라고 강조했습니다.

    알트먼은 국제원자력기구(IAEA)의 사례를 들며 일정 규모 이상 활동에 대해 허가권을 가진 새로운 기관의 설립위험 요소에 대한 평가 기준을 만들 것, 독립적 전문가로 구성된 감사의 필요성을 언급했습니다.


    학계와 정치권의 반응

    대화형 인공지능(Interactive AI) 챗GPT 출시 이후 AI가 몰고 올 미래에 대한 기대와 우려에 대해 미국의 학계와 정치권도 반응하며, AI에 대한 규제를 놓고 민주당과 공화당의 초당적 공감대도 형성되고 있습니다.

    게리 마커스 뉴욕대 신경과학 명예교수 역시 청문회에서 새로운 규제기관의 필요성을 강조하며 복잡하고 빠르게 발전하고 있는 AI를 정규 기관이 규제하는 것이 중요하다”고 말했습니다.

    민주당 크리스 쿤스 의원은 "이제까지 소셜미디어에 대한 규제에 실패해 왔다”며 “AI가 민주주의의 가치에 대한 믿음을 훼손할 가능성이 걱정스럽다”고 밝혔고, 조시 홀리 공화당 의원 역시 중국을 비롯한 적국의 AI 위협과 관련해 “미국의 자유와 국민을 위해 어떻게 이 기술을 통제할 수 있는지 고민해야 한다”고 말했습니다.

    신호등 사진


    인공지능(AI) 규제 방안과 시작


    최근 유럽연합(EU)이 세계 최초로 AI에 대한 포괄적 규제법 마련에 나서는 등 AI 규제안을 마련하려는 글로벌 차원의 접근과 시도가 점점 가속화되고 있습니다.

    EU의 AI 규제법 초안에는 원격 안면인식 등 생체정보 활용 AI 기술 규제를 강화하고, ‘생성 AI’가 만들어낸 글이나 이미지는 AI에 의해 작성된 것이라는 표기를 하도록 하는 투명성 강화 조처 등이 포함됐습니다. 미국 상무부 산하 국가통신정보관리청(NTIA)도 AI 규제와 관련해 의견을 수렴하고 있습니다.

    인공지능(AI)의 위험성에 대한 인지와 해결책은 분명 필요해 보이지만, 샘 알트먼과 제도권에서 제시하고 진행 중인 방법들은 당장 다른 개발업체들의 반발과 여러 논란의 가능성이 있어 보입니다.

    또 빠른 속도로 변화하고 발전해 가는 인공지능 기술개발의 속도와 상업화의 이해관계속에, 규제의 마련과 시행과정도 순탄치 많은 않을 듯 보입니다.

     

    챗GPT가 말하는 대화형 인공지능의 문제점과 개선방향


    다음은 챗GPT가 대답한 대화형 인공지능의 문제점과 개선방향입니다. 

    1) 이해력 부족

    대화형 인공지능은 종종 사용자의 의도를 완전히 이해하지 못하고 오해하는 경우가 있다. 이로 인해 정확한 답변이 제공되지 않거나 부적절한 답변이 나올 수 있다. 개선을 위해서는 자연어 이해(Natural Language Understanding) 기술의 발전이 필요하다.

    2) 상황 인식 부족

    대화형 인공지능은 대화의 맥락과 상황을 적절하게 이해하지 못하는 경우가 있다. 예를 들어, 대화 중에 이전에 언급된 정보를 고려하지 않고 중복된 질문을 할 수 있다. 상황 인식 능력을 향상시키기 위해 대화 기록을 유지하고, 상호작용의 맥락을 고려할 수 있는 기술 개발이 필요하다.

    3) 인간적인 상호작용 부재

    사용자와 자연스럽게 대화하거나 감정적인 의미를 이해하고 공감하는 능력이 미흡할 수 있다. 개선을 위해 감정 인식 및 생성 기술, 상호작용 설계 원칙을 고려하는 등 인간과의 자연스러운 대화를 위한 연구가 필요하다.

    4) 편향성과 신뢰성 문제

    대화형 인공지능은 학습 데이터에 내재된 편향성을 반영할 수 있다. 이로 인해 성별, 인종, 문화적인 차별 등 부적절한 응답이 발생할 수 있다. 편향성을 줄이고 신뢰성 있는 답변을 제공하기 위해서는 다양한 데이터 소스를 사용하고, 학습 데이터의 품질을 향상시키는 노력이 필요하다.

    5) 개인 정보 보호 문제

    대화형 인공지능은 사용자와의 대화 내용을 처리하고 저장하는 과정에서 개인 정보 보호 문제가 발생할 수 있다. 사용자의 대화 기록과 개인 정보를 안전하게 관리하고 처리하는 방법을 강화해야 한다.

    6) 윤리적 문제

    악용될 수 있는 콘텐츠 생성, 개인정보의 악용, 사회적 악영향 등이 있을 수 있다. 이에 대한 방지 및 규제를 위한 정책과 윤리적 가이드라인을 마련하는 것이 중요하다.


    이러한 문제들을 개선하기 위해서는 연구와 기술의 지속적인 발전, 적절한 규제와 윤리적 가이드라인 마련, 사용자 피드백에 대한 체계적인 수집 및 반영 등의 노력이 필요하다.


    인공지능(AI)의 문제점에 대한 다른 포스팅

     

    대화형 인공지능 개념과 활용, 문제점, 챗GPT와 구글 BARD발표

    오픈 AI의 대화형 인공지능 챗봇 '챗 GPT'의 관심이 뜨거운 가운데 구글에서도 대화형 인공지능 '바드(BARD)'의 출시를 예고했습니다. OpenAI사의 챗 GPT 공개 이후 위기감을 느낀 구글은 OpenAI에서 갈

    art-sailor.tistory.com

     

    반응형

    댓글