Photo from Shutterstock
최근 과학계에서는 인공지능(AI) 기술, 특히 챗지피티(ChatGPT)와 같은 언어 모델의 발전이 큰 화제다. 이러한 기술은 다양한 분야의 전문가들로부터 주목을 받으며, 그들 각각이 AI의 발전과 적용에 대해 다양한 관점을 제시하고 있다.
미국의 네이처(Nature)지는 12월7일 호에서 챗지피티(ChatGPT)와 같은 생성 인공지능(AI) 소프트웨어가 과학 분야에 끼친 영향에 대해 다뤘다.
네이처지가 2023년에 과학자 중 10대 인물로 챗지피티를 포함시킨 이유는 과학에 미친 광범위하고 심오한 영향 때문이라고 한다. 챗GPT는 과학자들의 작업 방식을 변화시키고 AI의 한계와 인간 지능의 본질, 두 가지의 상호 작용을 규제하는 방법에 대한 논쟁을 재점화시켰다.
일부 연구자들은 이미 챗지피티와 같은 대형 언어 모델의 잠재력을 인지하고 있다. 이러한 앱들은 연구 요약이나 원고 작성, 애플리케이션 개선, 코드 작성 등에서 중요한 역할을 하고 있다.
하버드 메디컬 스쿨의 마린카 지트닉은 이러한 소프트웨어가 아이디어 브레인스토밍, 과학 검색 엔진 개선, 문헌의 연구 격차 식별에 도움을 줄 수 있다고 말한다. 그러나 이 기술은 위험성도 내포하고 있다. 자동 대화 에이전트는 부정 행위와 표절을 도울 수 있으며, 통제되지 않으면 과학 지식의 원천을 영구적으로 오염시킬 수 있다.
AI가 생성한 내용이 인터넷을 통해 퍼지기 시작했고, 일부 과학자들은 챗지피티를 사용하여 아티클을 생성한 것을 인정했다. 생성형 AI는 오류와 편견 문제가 존재한다. 대형 언어 모델은 언어의 상호 연결을 매핑하여 세계 모델을 구축하고, 진실이나 거짓을 평가하는 개념 없이 이 분포의 타당한 샘플링을 되돌려준다. 이로 인해 교육 데이터의 역사적 편견이나 부정확성을 재현하고 비존재하는 과학 참고 문헌을 포함한 정보를 만들어낼 수 있다. 챗GPT는 과학계에 어떤 영향을 주고 있을까.
-
ChatGPT의 과학 연구에 대한 영향: ChatGPT는 과학 논문 작성, 프레젠테이션 개요 및 연구 아이디어 개발에 도움을 주고 있다. 이러한 AI 프로그램은 과학자들의 작업 방식을 변화시키고 있으며, AI의 한계와 인간 지능의 본질에 대한 논의를 촉발시켰다.
-
ChatGPT의 생성 및 기능: ChatGPT는 수백 억 개의 매개변수를 갖는 신경망을 기반으로 하며, 수백만 달러의 비용으로 책과 문서의 거대한 온라인 코퍼스에서 훈련되었다. 또한, OpenAI는 ChatGPT의 기반 LLM을 업그레이드하고 이미지 생성 및 수학/코딩 소프트웨어와 연결하여 기능을 확장했다.
-
연구 도구로서의 활용: 일부 연구자들에게는 이미 논문 요약, 신청서 작성, 코드 작성 등에 도움을 주는 중요한 연구실 조수가 되었다. 예를 들어, 하버드 의대의 마린카 지트닉(Marinka Zitnik)은 AI를 의료 연구에 활용하는 데 있어 이러한 모델의 가능성을 언급한다.
-
기술의 위험성: 그러나 이 기술은 부정 행위자들에게 도움을 줄 수 있고, 과학 지식의 원천을 영구적으로 오염시킬 수 있는 위험도 있다. 오류와 편견은 AI 생성의 본질적인 문제이며, 훈련 데이터의 역사적 편견이나 부정확성을 재생산할 수 있다.
-
규제 및 투명성의 필요성: LLM의 규모와 복잡성으로 인해 '블랙 박스'로 간주되며, ChatGPT와 같은 비공개 코드와 훈련 자료의 이해는 더 어려워진다. 일부 국가들은 이러한 큰 규모의 생성 AI를 연구하고 구축할 수 있는 국가 AI 연구 자원을 개발하고 있다.
각 분야의 전문가들이 네이처와 인터뷰에서 챗GPT 사용에 대한 의견을 주었다.
마지예 가세미 박사는 건강 관리 분야에서 AI의 사용에 주목하고 있는데, AI가 기존의 불평등과 차별을 확대하지 않고 오히려 이 문제를 바꾸는 데 도움이 되어야 한다고 강조했다. 그녀는 AI가 건강 관리에서 어떻게 편견을 줄일 수 있는지에 대한 연구에 집중하고 있다.
아비바 비르하네는 AI 윤리와 철학 분야의 연구자로, AI 기술의 사용 자체를 심사숙고해야 한다고 주장한다. 그녀는 기술 사용의 필요성과 잠재적인 위험을 신중하게 고려해야 한다고 강조하며, AI 기술의 사회적, 윤리적 영향에 대해 깊이 있는 연구를 진행하고 있다.
무슈타크 빌랄은 글쓰기와 문학 창작에 AI를 활용하는 방법에 대해 연구하는 학자이다. 그는 AI를 구조와 형식을 제공하는 데 사용하되, 내용 자체 생성에는 의존하지 말 것을 권장했고, 창의적이고 독창적인 콘텐츠 생성에 AI의 한계를 지적했다.
시다스 칸카리아는 교육 분야에서 AI의 활용 가능성을 탐구하는 전문가로, 특히 AI를 활용한 맞춤형 교육과 학습 경험 개선에 초점을 맞추고 있다. 그는 AI가 학습자의 필요와 선호에 맞게 교육 경험을 조정하는 데 유용할 수 있다고 본다.
클레어 말론은 과학 커뮤니케이터로 AI와 관련된 연구와 공공 인식에 기여하고 있다. 그녀는 AI가 항상 신뢰할 수 있는 것은 아니지만, 즐거움과 영감을 제공할 수 있다고 보며, 그 신뢰성에 대해 비판적인 시각을 유지하고 있다.
에탄 몰릭은 교육학 분야에서 AI를 활용하는 방법을 탐구하는 교육자이다 그는 AI가 교육에 가져올 긍정적인 변화를 강조하며, 이를 교육 분야에 적극적으로 도입할 것을 주장한다.
마지막으로, 프란시스코 투스투미는 AI의 투명성과 사용자 이해에 중점을 두는 연구자로, AI 기술의 작동 방식과 그 결과에 대한 명확한 이해의 중요성을 강조한다.
이들 전문가들의 의견은 AI 기술, 특히 챗지피티와 같은 고급 언어 모델의 사용에 대한 깊이 있는 통찰을 제공한다.