▶ 인공지능의 빛과 그늘… 첨단 기술의 두 얼굴
▶ 사람처럼 말 하면서 실시간 대화… 감정 표현까지
▶“컴퓨터와 대화 이젠 자연스러워… 놀라운 미래”
▶생산성 향상ㆍ질병 극복ㆍ편의성 증대 등 장점 크지만 일반인공지능(AGI), 통제하지 않으면‘위험’할수도
지난달 챗GPT 개발사인 오픈AI가 공개한 새 AI모델 ‘GPT-4O(GPT-포오)’는 실시간 음성대화를 할 수 있을 뿐만 아니라 사람의 움직임을 관찰하고 그에 대한 평가를 하고, 이용자의 감정상태까지 파악하는 등 놀랍도록 도약한 모습을 보여줬다. 이처럼 인공지능(AI)은 우리가 예상하던 속도보다 훨씬 빠른 발전을 통해 다양한 분야에서 인간의 삶에 혁명을 일으키고 있으며, 앞으로도 인간의 삶에 큰 변화를 가져올 것으로 예상되고 있다. 그러나 인간의 능력을 모방하는 것을 벗어나 넘어서고 있는 AI 발전을 지켜보며 영화‘터미네이터’나‘매트릭스’와 같이 인간의 제어를 벗어나 역으로 인간을 지배하는 시대가 올까 두려운 마음이 드는 것도 사실이다. 과연 인공지능의 발전은 인류를 위협할까.
■진짜 사람 같은 인공지능
지난 2013년 개봉한 할리웃 영화 ‘그녀’(Her)에는 ‘사만다’라는 인공지능(AI) 이 등장한다. 다른 사람의 편지를 대필해주는 회사에서 작가로 일하는 주인공은 아내와 이혼 절차를 밟는 우울한 현실 속에서‘사만다’를 알게 된다. 이 AI는 스스로를 단순한 운영체제가 아닌 하나의 인격체로 소개한다.
주인공은 처음에 사만다를 단순한 컴퓨터처럼 생각하다가 차츰 그 이상의 무언가를 느끼게 되고, 마침내 하나의 인격체로 생각하기 시작한다. 사만다는 주인공의 미팅 시간을 알려주는 것에서부터 주인공의 속마음까지도 들어주는 친구가 된다. 우울한 주인공을 위해 놀이동산에 가자는 제안도 한다.
AI와 사랑에 빠진다는 설정의 이 영화는 아직은 영화 그 자체이지만, 빠르게 발전해 나가고 있는 AI기술이 이 영화에서나 나올법한 상황들을 현실로 구현해 가고 있어 놀라움을 금할수 없다. 실제로 GPT-포오 모델을 통해 AI가 사실상 인간처럼 말하고 행동하면서, 그 능력은 인간을 훨씬 뛰어 넘어서는, 놀랍고도 한편으로는 두려워지는 현실이 눈앞에 성큼 다가온 것이다.
GPT-포오의 특징을 살펴보면, 기존 모델이 프롬프트를 주로 텍스트로 했다면 ‘GPT-4O’는 이용자와 음성 대화가 가능하다는 것이다. 텍스트를 입력하고 난 뒤 한참을 기다려야 답변을 들을 수 있는 것이 아니라 사람과 대화 속도로 질문을 주고 답변을 받을 수 있다. 실제 GPT-4O는 사람과 자연스럽게 대화하듯이 질문에 대한 답을 곧바로 제공한다. 영화 속 AI처럼 아직 완벽하지는 않지만, 그에 근접해 가고 있는 셈이다.
즉, ‘GPT-4O’ 모델의 가장 큰 장점은 무엇보다 인간과 유사한 감각적인 성능을 탑재했다는 데 있다. 카메라(눈)로 사물을 보고 스피커(귀)를 통해 소리도 듣는다. 샘 올트먼 오픈AI 최고경영자는 “(AI 모델이) 영화에 나오는 AI처럼 느껴지고, 그것이 현실이라는 게 조금 놀랍다”며“인간 수준의 반응 시간과 표현력에 도달하는 것은 큰 변화”라고 말했다.
■AI의 두 얼굴
AI의 발전은 인간에게 긍정적인 영향과 부정적인 영향을 모두 미치고 있다. 우선 AI의 긍정적 영향으로는 생산성 향상, 질병 치료 개선, 일상생활의 편의성 증대 등이 있다. AI는 인간이 수행하기 어렵고 복잡한 작업을 자동화하여 생산성을 높일 수 있다. 이미 AI는 제조 공정, 금융 거래, 고객 서비스 등 다양한 분야에서 인간을 대체하고 있으며, 생성형 AI인 챗봇은 고객 서비스를 향상시키는데 도움이 되고 있다.
암 진단, 신약 개발, 수술 보조 등 다양한 의료 분야에서도 AI는 활용되고 있다. 최근 구글 헬스와 임페리얼 칼리지 런던 등이 참여한 연구팀이 개발한 AI의 유방암 판별 능력은 의사 2명의 협업을 통한 판별 능력과 차이가 없는 것으로 보고됐다. 또한 일상생활의 편의성도 증대시킬 것이다. AI는 개인 맞춤형 서비스 제공, 교통 체증 완화, 에너지 효율 등 다양한 분야에서 일상생활의 편의성을 향상시키는 데 활용될 수 있다.
반면에 AI의 부정적인 영향으로는 일자리 대체, 사회 양극화의 심화, AI의 악용 가능성이 있다. AI는 인간이 수행하는 많은 일자리를 자동화할 수 있으며, AI의 발전은 일자리 감소로 이어질 수 있다. 이미 콜센터 상담원, 은행원 등 다양한 직업군에서 AI에 의한 일자리 감소가 발생하고 있다. 현재의 AI 발전 속도를 감안해 본다면, 단순 작업을 대체하는 수준을 넘어 높은 수준의 창의성을 요구하는 예술 분야에도 영향을 미칠 가능성이 있다. 또 다른 부정적인 측면은 사회 양극화이다.
예를 들어 AI 기술을 보유한 사람들은 이를 활용해 더 많은 수익을 창출하고 더 나은 삶을 누릴 것이다. 그러나 AI 기술을 보유하지 않은 사람들은 AI 기술을 활용할 수 없어 경제적, 사회적으로 소외될 가능성이 크다. 이로 인해 현재 우리 사회가 겪고 있는 실업, 소득 불평등 문제가 더욱 심화될 가능성이 크다. AI의 악용 가능성도 문제다. AI는 무기, 도용, 테러 등 다양한 악의적인 목적으로 사용될 수 있다. 개인 정보를 탈취하거나, 무기를 더 정밀하게 개조해 테러 계획에 이용될 수도 있다.
그러나 앞서 말한 부정적인 측면들보다 더욱 위험한 상황은 AI 그 자체다. 지난 3월 AI 정책 조언을 제공하는 민간 업체 ‘글래드스톤 A’는 홈페이지에 ‘첨단 AI의 안전성과 보안성을 높이기 위한 방안’이라는 보고서를 발표했다. 미 국무부의 의뢰로 작성된 이 보고서는 AI가 인류를 멸종시킬 가능성이 있다고 보고했다. 해당 보고서는 지난해 생성형 AI 붐이 일어난 후 커진 ‘AI종말론’과 비슷한 주장을 이어가고 있다. 최첨단 AI와 인간을 능가하는 지능을 갖춘 일반인공지능(AGI)의 등장을 핵무기에 비교하며, 통제하지 않으면 언젠가 인간을 멸종시킬 수도 있다는 것이다.
이 보고서는 특히 고도로 발전한 AI의 위험 요소로 ‘무기화’와 ‘통제력 상실’을 꼽았다. 보고서는 현재 AGI의 진화 속도가 매우 빠르며, 5년 내에 AGI가 실제로 나타날 것으로 예측하고 있다. 오픈AI, 구글 딥마인드, 엔비디아 등은 모두 2028년쯤 AGI에 도달할 수 있을 것으로 내다보고 있다.
■대비책은
지난 4월 일론 머스크 테슬라 CEO를 비롯한 1,000여명 이상의 산업계·학계·연구자 등이 AI 개발을 일시 중단해야 한다고 발표했다. 전문가들 역시 AI가 가져올 가능성의 이면에 있는 부정적 영향에 대한 우려가 큰 것이다. 앞서 말한 보고서에서도 AI가 가져올 부정적 영향을 방지하기 위해 미국 정부가 빠르게 개입해야 한다고 강조하고 있다.
지금까지 AI는 개인 정보의 수집/사용/공개와 관련된 범위 내에서 각국의 개인정보 보호 법령의 적용을 받아왔다. 그러나 AI 기술 발전 과정에서 예측하지 못한 사회적, 경제적, 윤리적 리스크 발생 가능성이 높아짐에 따라 AI 신뢰성과 안전성을 제고하기 위한 각국의 입법 시도가 활발해지고 있다. 이들은 공통적으로 데이터 보호 등 법적 의무를 기업에만 한정하기보다 AI 산업 생태계 참여자들의 전반적인 책임을 강조하고, AI 위험성을 주기적으로 모니터링하도록 함으로써 식별된 위험에 대한 완화 조치를 시의적절하게 취할 수 있도록 한다는 점에서 유사한 특징을 보이고 있다.
올해 3월 EU는 인공지능을 규제하기 위하여 전 세계 최초로 AI법안(Regulation Laying Down Harmonised Rules on Artificial Intelligence, 이하 ‘EU AI법’)을 통과시켰다. EU AI법은 현재까지 AI에 관하여 이루어진 가장 포괄적인 규제 프레임워크이며 AI 시스템이 초래할 수 있는 인권, 안전, 윤리 문제를 감소시키는 데 목적을 두고 있다. 미국 역시 입법을 서두르고 있다. 연방정부 차원에서 지난 3월 ‘2024 AI 환경영향법’이 발의되고 캘리포니아 주 의회에서도 30개 이상의 AI 관련 법안이 심사 중에 있는 등 활발하게 AI 관련 규제에 대해 논의가 진행되고 있다.
개인이 AI를 사용할 때도 주의해야 한다. 최근 이슈화되고 있는 AI로 인한 저작권 침해, 개인정보 유출, 사회적 편견이 내포된 편향된 정보, 딥페이크 오남용 등을 막기 위해서는 이용자 스스로 판단과 검토를 통해 생성형 AI를 안전하고 책임감 있게 활용하는 윤리적 마인드가 필요하다.
■결론
정부와 기업은 AI 기술의 윤리적 사용을 보장하고, AI 기술이 초래할 수 있는 위험을 최소화하기 위해 엄격한 규제를 마련해야 한다. 동시에 개인은 AI를 사용할 때 책임감을 가지고, AI가 제안하는 내용을 무조건적으로 따르기보다는 스스로 판단하고 조절하는 노력이 필요하다. 이러한 노력이 결합될 때, AI는 인간의 삶을 더욱 편리하고 풍요롭게 만들 수 있는 강력한 도구로 자리 잡을 수 있을 것이다.
<
황의경 기자>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x총 1건의 의견이 있습니다.
거짖말을 하고도 눈하나 깜짝이지아니하고 오히려 큰소리치며 당당하게 나돌아다니는 트 같은이가 있는한 우리 모두는 크게 어려움에 매일 노출되며 살아야 한다는게 큰 걱정입니다..