인간의 마음을 읽는 감정 인식 기술

 1  인간의 마음을 읽는 감정 인식 기술-1
 2  인간의 마음을 읽는 감정 인식 기술-2
※ 미리보기 이미지는 최대 20페이지까지만 지원합니다.
  • 분야
  • 등록일
  • 페이지/형식
  • 구매가격
  • 적립금
자료 다운로드  네이버 로그인
소개글
인간의 마음을 읽는 감정 인식 기술에 대한 자료입니다.
본문내용
감정인식 기술은 기계들을 논리의 제한을 받는 노예 상태에서 사려 깊고 관찰력 뛰어난 협력자로 변화시킬 수 있다. 이러한 장치들이 인간 정서 경험을 100% 꿰뚫어볼 수 없을지 모르지만 전자 가정교사, 전자 로봇, 전자 어드바이저, 전자 정신요법 보조원 등으로 응용될 여지는 여전히 존재한다. 특히 감정을 수량화할 수 있는 감정 기계들의 능력은 데이터를 정확히 이해하려는 정부나 기업들에 큰 매력이 되고 있다.
인간과 기계의 교감, 어디까지 가능할까?
인간의 의식을 기계에 저장하고, 아침 식탁에서 요구르트와 대화를 나누며, 추락하는 비행기가 추락을 피하기 위해 안간힘을 쓴다. 다소 황당하게 들리는 이 얘기는 영국 《가디언》의 일요판인 옵서버가 예측한 2050년 미래의 모습이다. 이 예언의 주인공인 영국 통신회사 브리티시 텔레콤의 이안 피어슨은 2020년까지 인간의 지능을 가진 컴퓨터가 나올 것으로 예측했다. 즉 뇌가 외부의 정보를 받아들이는 방법을 알면 생각하는 컴퓨터가 탄생될 것이고, 이는 지각 또는 인식 능력을 감각의 하나로 인식해 컴퓨터가 인간의 감정을 느끼는 단계로까지 발전한다는 것이다.
최근 국내에서도 인간과 로봇의 커뮤니케이션에 대한 연구가 활발하다. 또한, 유비쿼터스와 브로드밴드의 발달과 함께 누구와도 연결할 수 있는 컴퓨터 커뮤니케이션 시대가 열렸다.
하지만 기계와 인간의 커뮤니케이션에 대한 연구는 기존의 공학적 접근만으로는 도저히 해결할 수 없는 여러 문제를 안고 있다. 예를 들면 복잡한 인간의 감정을 과학적으로 정량 분석하는 수단이 정비되지 않았다. 이것은 기계 자체가 자아나 이성을 갖지 않는 한 인간 자신의 정신적 사고와 활동의 재현에 의한 판단, 인간에 대한 이해가 근본적으로 불가능하다는 얘기다.
기계가 인간을 이해한다면 기계는 인간의 감정 상태를 느낄 수 있게 될 것이다. 하지만 사람의 감정은 본인 자신조차 자각하기 힘들만큼 복잡할 뿐 아니라 감수성의 기준이 될 만한 인간의 감정 인식이나 감정으로서 표층화되는 이전의 심적 특성까지 해명하는 데까지는 이르지 못하고 있다.
인간의 뇌와 같은 똑똑한 인공지능을 가진 로봇이나 사람의 감정을 읽어낼 수 있는 컴퓨터를 탄생시키기엔 현재 과학 기술은 아직 역부족이다. 논리적으로 ‘천재라고 할 수 있는 컴퓨터는 감정적으론 백치나 다름없다. 하지만 한편에서는 인간과 교감할 수 있는 기계를 개발하기 위한 과학자과 심리학자들의 노력이 계속되고 있다.
음성인식으로 연인의 속마음도 측정
사람이 무엇을 원하는지 알아차리고 그에 대한 적절한 행동을 취하는 눈치 빠른 기계가 되기 위해서는 인간과 같은 오감이 필요할 것이다. 지금까지 기계에 의한 감정인지 기술은 주로 시각과 청각에 초점을 맞춰 연구 개발되고 있다. 사람의 수많은 감정이 시각이나 청각, 혹은 후각이나 촉각 중 어느 하나의 감각만으로 표출되진 않겠지만, 인간이 감정을 표출하는 데 있어 표정과 목소리에 의지하는 면이 많은 게 사실이다.
지난여름 개봉했던 공상과학영화 〈아이로봇〉에서는 로봇이 사람의 목소리로 분노를 인식하는 장면이 나왔다. 실제로 스코틀랜드의 어펙티브 미디어사의 연구진들은 이처럼 인간이 말하는 방식으로 분위기를 인식할 수 있는 컴퓨터 시스템을 개발, 자동차 제조사와 컴퓨터 게임 업체에 판매를 타진중이다.
연구진이 개발한 시스템은 사람들이 사용하는 단어는 무시하고 오직 음질에만 포커스를 맞춰 감정을 인지하는 기술이다. 이 기술을 이용해 운전자는 음성으로 CD 플레이어나 히터, 환풍기를 작동시킬 수 있으며, 감정인식을 통해 이러한 음성명령에서 운전자가 화난 상태인지 실망하고 있는지, 아니면 졸린 상태인지를 인지할 수 있게 되는 것이다. 즉 자동차가 정보 제공 방식을 운전자의 기분에 따라 바꾸게 되는 것으로, 운전자가 지루해 할 경우 자동차는 좀 더 시끄러운 방법으로 정보를 제공하게 되며, 운전자가 화난 상태라면 보다 침착한 방식을 택할 것이다. 이 기술은 이미 콜센터에서 사용되고 있다. 전화를 건 사람은 자신의 목소리를 평가받게 되며, 이 평가 결과를 토대로 화가 난 사람이라고 판단되면 숙련된 직원에게 연결되는 것이다. 이 시스템은 실제로 분노나 두려움을 느끼는 것으로 나타난 사람들만 긴급 전화 서비스에 연결시켜 장난 전화를 예방하는 데도 쓰일 수 있다.
음성인식 기술을 통한 감정인식은 최근 우리 실생활 가까이에 침투하고 있다. 휴대폰으로 통화하는 상대방의 속마음을 예측해주는 감정분석 서비스가 국내 한 통신사에 의해 이미 서비스되고 있다. 이 서비스는 음성인식 기술을 이용해 전화 상대의 목소리에서 기쁨, 슬픔, 짜증, 분노 등 18가지의 감정 특성값을 추출해 알려준다. 현재 감정인식 성공률은 71.7%라고 한다.
일본에서도 마스터 액션과 음성파형 특성으로 감정을 인식하는 캐릭터가 개발돼 화제가 되기도 했다. 일본 NTT사이버솔루션 연구소에서 만든 ‘응토토라는 사이버 캐릭터는 기계와 인간의 친밀성에 초점을 맞춰 개발된 것으로 개인 심리 특성 학습기능을 통해 기계가 인간이 어디까지 친밀해질 수 있는지에 대한 중요한 시도였다는 평가를 받고 있다.