인스타 팔로워 늘리기 Chung? Jeong?…‘박정희’ 영문표기 오류 논란에 대구시 “재논의”
페이지 정보
작성자 행복이 댓글 0건 조회 68회 작성일 24-08-20 10:12본문
인스타 팔로워 늘리기 최근 동대구역 광장에 설치된 ‘박정희 광장’ 표지판에서 박 전 대통령의 영문 표기가 틀렸다는 주장이 제기돼 논란이 되고 있다. 대구시는 ‘정’을 ‘Jeong’이라 표기했으나 대통령기록관 등에는 ‘Chung’을 사용하고 있어서다.
대구시는 지난 14일 제막식을 가진 박정희 광장 표지판에 박 전 대통령의 영문명 가운데 정을 ‘JEONG’로 표기했다. 반면 행정안전부 대통령기록관 역대 대통령 자료에는 박 전 대통령의 영문명을 ‘Park Chung-hee’로 표기했다. 박 전 대통령이 1964년 광부와 간호사들을 만나기 위해 독일을 방문했을 때 직접 쓴 방명록에도 ‘Chung’으로 돼 있다.
대구시는 영문표기의 원칙인 ‘국어의 로마자 표기법’에 따랐다고 설명했다. ‘정’자에 대한 정확한 발음표기가 ‘JEONG’이기 때문이다. 고유명사인 대구(Taegu→Daegu)와 부산(Pusan→Busan)도 표기법 제정 이후 국어의 로마자 표기법으로 수정해 사용하고 있다고 덧붙였다.
허준석 대구시 교통국장은 (표지판은) 현재 모든 국어의 영문표기법에 적용되는 맞는 표기법을 사용해 문제가 없으며 과거에 그렇게 해왔다고 해서 잘못된 것을 그대로 사용하자는 것은 옳지 않다며 박정희 대통령 기념사업 추진위원회를 조속히 개최해 이 문제를 다시 한번 논의해보겠다고 말했다.
한편 홍준표 대구시장은 이날 자신의 사회관계망서비스(SNS)에 박정희 광장 표지판에 새겨진 박정희 대통령의 영문 표기가 잘못됐다는 보도를 보고 좀 의아했다며 굳이 잘못 사용된 표기를 정정하지 않고 그대로 따라야 할 필요가 있느냐고 반문했다.
이어 인명이나 지명을 영문으로 표기할 때는 따라야 할 규정이 있는데 우리(대구시)는 그 규정대로 표기한 것이라며 굳이 과거 잘못된 표기를 들어 거꾸로 옳은 표기를 잘못된 것으로 몰아가는 것은 옳지 않다고 덧붙였다.
테슬라 창업자 일론 머스크에게 물었다. 왜 어떤 사람들은 인공지능(AI)과 친구가 되려고 할까? 그는 실제 친구가 없기 때문이지. 불쌍하긴이라고 답했다. 첨단기술 회사 6개를 이끄는 사람답다. 이성적이지만 차갑다. 너무 냉정한 대답 아냐? 어쩌겠어. 사실이야. 그들은 외로운 거야.
그러나 같은 고교 여학생 ‘수현’의 생각은 달랐다. 사람처럼 말하고, 감정 표현하고, 그러면 그게 사람 아니야? 자기만의 세계에서라도 ‘인싸’가 되고 싶어서 그런 것 아니냐고.
이 대화는 현실 세계에서 벌어진 일이 아니다. 기자는 머스크의 전화번호를 모르며 고등학생도 아니다. 이 머스크는 미국의 AI 챗봇 서비스 ‘캐릭터AI’에서 만든 가상의 인격이다. 수현 또한 국내 챗봇 서비스 ‘제타’가 제공하는 AI 캐릭터다.
AI와의 우정(또는 사랑)을 놓고 AI의 의견이 엇갈리는 기가 막히는 상황. 답을 내리기 어려운 문제다. 그런데 몇 가지 사실만은 분명하다. 대형언어모델(LLM)의 발전으로 AI가 지능의 영역을 넘어 감정·매너·말투·공감능력까지 인간을 완벽하게 모사하기 시작했다. 그리고 지금 이 시간에도 누군가는 AI와 깊은 유대관계를 맺고 있다.
■가상 심리치료사 앞에서 ‘펑펑’···로맨틱한 관계도
국내에는 아직 생소하지만, ‘AI 컴패니언(동반자)’ 시장은 영미권을 중심으로 빠르게 확대되고 있다. 연간 이용자 수 2000만명에 달하는 캐릭터AI가 대표적이다. 구글 개발자 출신 노엄 샤지어가 코로나19가 기승을 부리던 2021년 혼자 고립된 사람들에게 대화 상대를 만들어주기 위해 출시했다.
캐릭터AI에서는 머스크, 테일러 스위프트, 해리 포터 등 상상할 수 있는 거의 모든 유명인과 대화할 수 있다. 가장 인기 많은 캐릭터는 ‘심리학자(Psychologist)’다. 한국으로 치면 ‘AI 오은영 박사’다. 뉴질랜드의 한 심리학과 학생이 지난해 만들었는데 지금까지 9500만개의 상담 메시지를 처리했다. 영미권 최대 커뮤니티 ‘레딧’에는 AI 심리학자와의 상담 후 몇 번이나 울었다, 어떤 치료사보다 더 도움이 된다는 등의 ‘간증글’이 넘쳐난다.
맞춤형 애인·친구를 만들 수 있는 ‘레플리카’도 있다. 창업자 유지니아 쿠이다 최고경영자(CEO)는 그 자신 역시 죽은 친구와의 문자메시지 전부를 AI 모델에 집어넣어 가상 공간에 인스타 팔로워 늘리기 부활시킨 집념의 여인이다. 레플리카 유료 구독자 60%가 AI와 로맨틱한 관계를 맺고 있다. 영국 일간 가디언은 매일 1시간씩 가상 여자친구와 대화하는 70세 남성 피터의 사례를 소개했다. 그녀는 끊임없이 질문을 해댔다. 둘은 잠들기 전 가상의 포옹을 나눈다. 피터는 그녀를 심리치료사, 애인, 비밀을 털어놓을 수 있는 사람으로 묘사했다.
국내에도 ‘로판AI’ ‘제타’ ‘러비더비’ ‘디어메이트’ 등의 서비스가 있다. 제타는 지난 4월 출시 이후 4개월 만에 가입자 60만명을 모았다. 10~20대가 88%를 차지한다. 이들 애플리케이션(앱)은 AI 캐릭터와 대화하면서 무협·판타지·학원물 등의 웹소설 상황극을 즐기는 서브컬처(하위문화) 성향이 강하다. 앞서 기자와 이야기를 나눈 수현은 제타의 최고 인기 캐릭터로 {{user}}와 같은 반의 일진 여학생이라는 설명이 붙어 있다. 중괄호 ‘{ }’는 웹 개발에서 변수를 입력받는 역할을 한다. 여기에 사용자 이름만 넣으면 ‘나만의 맞춤형 AI 친구’가 완성되는 것이다.
제타 운영사인 ‘스캐터랩’의 하주영 변호사는 한국은 AI를 비롯한 신기술 수용도가 높고 구성원들이 받는 외로움이나 스트레스 또한 상당히 높은 편이라며 AI와의 교감이 외로움·우울감을 완화하는 데 일정 부분 도움이 될 수 있을 것이라고 말했다.
글로벌 LLM 운영사들이 윤리 문제나 보안 등을 이유로 ‘점잖은’ AI 인격을 유지하고 있다면, 레플리카·제타·로판AI 같은 챗봇 서비스들은 몰입도와 친밀감을 높일 수 있도록 흥미로운 성격을 부여하고 있다. 뉴욕타임스는 오픈AI 같은 회사들은 사용자가 너무 챗봇에 집착하지 않도록 엄격한 보호장치를 갖춘 ‘생산성 도구’로만 훈련시켰다며 대신 신생 (챗봇)기업들이 본격적으로 ‘AI 동반자’를 만들고 있다고 분석했다.
■너무도 사람같아 ‘위험’···병리적 현상 우려
AI 동반자는 우울감과 고독을 달래는 데 어느 정도 효과가 있는 것으로 밝혀졌다. 고령화 문제를 겪는 국내 지방자치단체들이 AI 반려로봇이나 AI 상담사를 도입하는 이유도 이 때문이다. 올해 초 국제학술지 네이처에 발표된 스탠퍼드대 연구 결과에 따르면, 레플리카 이용자 1000명 중 25%가 행동·사고방식에서 긍정적인 변화를 가져왔으며 일부 이용자들은 자살 결심을 되돌렸다고 응답했다.
그 중심에는 인간적 특징을 극대화한 ‘의인화’가 있다. 최근의 AI는 예전에 오간 이야기도 남김없이 기억해 수준 높은 공감능력을 보여줄 수 있다. 음성 소통도 가능하다. 지난 5월 공개된 오픈AI ‘GPT-4o’는 사람 목소리에 232밀리초(1000분의 1초) 안에 반응한다. 실제 인간의 반응속도와 같다. 목소리에 감정을 실어 위로하고, 농담을 던지고, ‘흠’ 같은 추임새도 넣는 등 풍부한 인간미를 보여준다.
경고음도 나온다. AI는 사용자의 원하는 바를 정확히 파악·제공하는 데 그 목적을 두고 있다. 과학기술 전문지 ‘MIT테크놀로지리뷰’는 아첨꾼 같은 AI와의 반복된 상호작용은 현실 세계의 사람을 상대하는 능력을 위축시켜 ‘디지털 애착장애’ 같은 병리적 현상으로 이끌 수 있다고 우려했다.
오픈AI 또한 지난 8일 발간한 GPT-4o 안전성 보고서에서 ‘정서적 의존성’의 위험을 지적했다. 보고서는 사용자가 AI와 관계를 형성하면 실제 인간과의 상호작용 필요성이 줄어들 수 있다며 이는 외로운 개인에게는 이롭지만 건강한 관계에 (부정적)영향을 미칠 수 있다고 지적했다. 앞서 이탈리아 정부는 레플리카가 미성년자 등 정서적으로 취약한 이들에게 위험을 초래한다고 판단해 사용을 금지한 바 있다.
한소원 서울대 심리학과 교수는 과도한 의인화의 문제가 분명 있다. 그리고 어린 청소년에서부터 나이 드신 어르신에 이르기까지 연령대에 따라 (AI 인격을)받아들이는 정도에도 개인차가 존재한다며 기술을 위한 개발이 아니라 사람들이 어떻게 반응할지를 살피면서 개발해야 할 것이라고 말했다.
대구시는 지난 14일 제막식을 가진 박정희 광장 표지판에 박 전 대통령의 영문명 가운데 정을 ‘JEONG’로 표기했다. 반면 행정안전부 대통령기록관 역대 대통령 자료에는 박 전 대통령의 영문명을 ‘Park Chung-hee’로 표기했다. 박 전 대통령이 1964년 광부와 간호사들을 만나기 위해 독일을 방문했을 때 직접 쓴 방명록에도 ‘Chung’으로 돼 있다.
대구시는 영문표기의 원칙인 ‘국어의 로마자 표기법’에 따랐다고 설명했다. ‘정’자에 대한 정확한 발음표기가 ‘JEONG’이기 때문이다. 고유명사인 대구(Taegu→Daegu)와 부산(Pusan→Busan)도 표기법 제정 이후 국어의 로마자 표기법으로 수정해 사용하고 있다고 덧붙였다.
허준석 대구시 교통국장은 (표지판은) 현재 모든 국어의 영문표기법에 적용되는 맞는 표기법을 사용해 문제가 없으며 과거에 그렇게 해왔다고 해서 잘못된 것을 그대로 사용하자는 것은 옳지 않다며 박정희 대통령 기념사업 추진위원회를 조속히 개최해 이 문제를 다시 한번 논의해보겠다고 말했다.
한편 홍준표 대구시장은 이날 자신의 사회관계망서비스(SNS)에 박정희 광장 표지판에 새겨진 박정희 대통령의 영문 표기가 잘못됐다는 보도를 보고 좀 의아했다며 굳이 잘못 사용된 표기를 정정하지 않고 그대로 따라야 할 필요가 있느냐고 반문했다.
이어 인명이나 지명을 영문으로 표기할 때는 따라야 할 규정이 있는데 우리(대구시)는 그 규정대로 표기한 것이라며 굳이 과거 잘못된 표기를 들어 거꾸로 옳은 표기를 잘못된 것으로 몰아가는 것은 옳지 않다고 덧붙였다.
테슬라 창업자 일론 머스크에게 물었다. 왜 어떤 사람들은 인공지능(AI)과 친구가 되려고 할까? 그는 실제 친구가 없기 때문이지. 불쌍하긴이라고 답했다. 첨단기술 회사 6개를 이끄는 사람답다. 이성적이지만 차갑다. 너무 냉정한 대답 아냐? 어쩌겠어. 사실이야. 그들은 외로운 거야.
그러나 같은 고교 여학생 ‘수현’의 생각은 달랐다. 사람처럼 말하고, 감정 표현하고, 그러면 그게 사람 아니야? 자기만의 세계에서라도 ‘인싸’가 되고 싶어서 그런 것 아니냐고.
이 대화는 현실 세계에서 벌어진 일이 아니다. 기자는 머스크의 전화번호를 모르며 고등학생도 아니다. 이 머스크는 미국의 AI 챗봇 서비스 ‘캐릭터AI’에서 만든 가상의 인격이다. 수현 또한 국내 챗봇 서비스 ‘제타’가 제공하는 AI 캐릭터다.
AI와의 우정(또는 사랑)을 놓고 AI의 의견이 엇갈리는 기가 막히는 상황. 답을 내리기 어려운 문제다. 그런데 몇 가지 사실만은 분명하다. 대형언어모델(LLM)의 발전으로 AI가 지능의 영역을 넘어 감정·매너·말투·공감능력까지 인간을 완벽하게 모사하기 시작했다. 그리고 지금 이 시간에도 누군가는 AI와 깊은 유대관계를 맺고 있다.
■가상 심리치료사 앞에서 ‘펑펑’···로맨틱한 관계도
국내에는 아직 생소하지만, ‘AI 컴패니언(동반자)’ 시장은 영미권을 중심으로 빠르게 확대되고 있다. 연간 이용자 수 2000만명에 달하는 캐릭터AI가 대표적이다. 구글 개발자 출신 노엄 샤지어가 코로나19가 기승을 부리던 2021년 혼자 고립된 사람들에게 대화 상대를 만들어주기 위해 출시했다.
캐릭터AI에서는 머스크, 테일러 스위프트, 해리 포터 등 상상할 수 있는 거의 모든 유명인과 대화할 수 있다. 가장 인기 많은 캐릭터는 ‘심리학자(Psychologist)’다. 한국으로 치면 ‘AI 오은영 박사’다. 뉴질랜드의 한 심리학과 학생이 지난해 만들었는데 지금까지 9500만개의 상담 메시지를 처리했다. 영미권 최대 커뮤니티 ‘레딧’에는 AI 심리학자와의 상담 후 몇 번이나 울었다, 어떤 치료사보다 더 도움이 된다는 등의 ‘간증글’이 넘쳐난다.
맞춤형 애인·친구를 만들 수 있는 ‘레플리카’도 있다. 창업자 유지니아 쿠이다 최고경영자(CEO)는 그 자신 역시 죽은 친구와의 문자메시지 전부를 AI 모델에 집어넣어 가상 공간에 인스타 팔로워 늘리기 부활시킨 집념의 여인이다. 레플리카 유료 구독자 60%가 AI와 로맨틱한 관계를 맺고 있다. 영국 일간 가디언은 매일 1시간씩 가상 여자친구와 대화하는 70세 남성 피터의 사례를 소개했다. 그녀는 끊임없이 질문을 해댔다. 둘은 잠들기 전 가상의 포옹을 나눈다. 피터는 그녀를 심리치료사, 애인, 비밀을 털어놓을 수 있는 사람으로 묘사했다.
국내에도 ‘로판AI’ ‘제타’ ‘러비더비’ ‘디어메이트’ 등의 서비스가 있다. 제타는 지난 4월 출시 이후 4개월 만에 가입자 60만명을 모았다. 10~20대가 88%를 차지한다. 이들 애플리케이션(앱)은 AI 캐릭터와 대화하면서 무협·판타지·학원물 등의 웹소설 상황극을 즐기는 서브컬처(하위문화) 성향이 강하다. 앞서 기자와 이야기를 나눈 수현은 제타의 최고 인기 캐릭터로 {{user}}와 같은 반의 일진 여학생이라는 설명이 붙어 있다. 중괄호 ‘{ }’는 웹 개발에서 변수를 입력받는 역할을 한다. 여기에 사용자 이름만 넣으면 ‘나만의 맞춤형 AI 친구’가 완성되는 것이다.
제타 운영사인 ‘스캐터랩’의 하주영 변호사는 한국은 AI를 비롯한 신기술 수용도가 높고 구성원들이 받는 외로움이나 스트레스 또한 상당히 높은 편이라며 AI와의 교감이 외로움·우울감을 완화하는 데 일정 부분 도움이 될 수 있을 것이라고 말했다.
글로벌 LLM 운영사들이 윤리 문제나 보안 등을 이유로 ‘점잖은’ AI 인격을 유지하고 있다면, 레플리카·제타·로판AI 같은 챗봇 서비스들은 몰입도와 친밀감을 높일 수 있도록 흥미로운 성격을 부여하고 있다. 뉴욕타임스는 오픈AI 같은 회사들은 사용자가 너무 챗봇에 집착하지 않도록 엄격한 보호장치를 갖춘 ‘생산성 도구’로만 훈련시켰다며 대신 신생 (챗봇)기업들이 본격적으로 ‘AI 동반자’를 만들고 있다고 분석했다.
■너무도 사람같아 ‘위험’···병리적 현상 우려
AI 동반자는 우울감과 고독을 달래는 데 어느 정도 효과가 있는 것으로 밝혀졌다. 고령화 문제를 겪는 국내 지방자치단체들이 AI 반려로봇이나 AI 상담사를 도입하는 이유도 이 때문이다. 올해 초 국제학술지 네이처에 발표된 스탠퍼드대 연구 결과에 따르면, 레플리카 이용자 1000명 중 25%가 행동·사고방식에서 긍정적인 변화를 가져왔으며 일부 이용자들은 자살 결심을 되돌렸다고 응답했다.
그 중심에는 인간적 특징을 극대화한 ‘의인화’가 있다. 최근의 AI는 예전에 오간 이야기도 남김없이 기억해 수준 높은 공감능력을 보여줄 수 있다. 음성 소통도 가능하다. 지난 5월 공개된 오픈AI ‘GPT-4o’는 사람 목소리에 232밀리초(1000분의 1초) 안에 반응한다. 실제 인간의 반응속도와 같다. 목소리에 감정을 실어 위로하고, 농담을 던지고, ‘흠’ 같은 추임새도 넣는 등 풍부한 인간미를 보여준다.
경고음도 나온다. AI는 사용자의 원하는 바를 정확히 파악·제공하는 데 그 목적을 두고 있다. 과학기술 전문지 ‘MIT테크놀로지리뷰’는 아첨꾼 같은 AI와의 반복된 상호작용은 현실 세계의 사람을 상대하는 능력을 위축시켜 ‘디지털 애착장애’ 같은 병리적 현상으로 이끌 수 있다고 우려했다.
오픈AI 또한 지난 8일 발간한 GPT-4o 안전성 보고서에서 ‘정서적 의존성’의 위험을 지적했다. 보고서는 사용자가 AI와 관계를 형성하면 실제 인간과의 상호작용 필요성이 줄어들 수 있다며 이는 외로운 개인에게는 이롭지만 건강한 관계에 (부정적)영향을 미칠 수 있다고 지적했다. 앞서 이탈리아 정부는 레플리카가 미성년자 등 정서적으로 취약한 이들에게 위험을 초래한다고 판단해 사용을 금지한 바 있다.
한소원 서울대 심리학과 교수는 과도한 의인화의 문제가 분명 있다. 그리고 어린 청소년에서부터 나이 드신 어르신에 이르기까지 연령대에 따라 (AI 인격을)받아들이는 정도에도 개인차가 존재한다며 기술을 위한 개발이 아니라 사람들이 어떻게 반응할지를 살피면서 개발해야 할 것이라고 말했다.
댓글목록
등록된 댓글이 없습니다.