• 로그인

AI 향한 신뢰와 의존, 이대로 괜찮은가

- 클릭 한 번으로 완성되는 편리함 - AI 결과 맹신 경계···비판적 검토 필요

조은상 기자
- 3분 걸림 -

몇 년 사이 AI는 우리 일상 깊숙이 스며들었다. 과거 AI가 시리(Siri), 구글 어시스턴트 등 보조 기능이나 인터넷 알고리즘처럼 제한된 영역에서 활용됐다면, 2023년 전후로 챗GPT(ChatGPT), 제미나이(Gemini) 등 생성형 AI가 등장하면서 누구나 손쉽게 활용할 수 있는 기술로 대중화됐다. 이에 따라 AI는 4차 산업혁명의 핵심 분야로 자리 잡았으며, 산업과 사회 전반에 걸쳐 영향력을 확대하고 있다.

생성형 AI가 짧은 시간 내 확산된 배경으로는 편리함과 범용성이 꼽힌다. 기본적인 기능은 별도의 비용 없이도 사용할 수 있고, 복잡한 명령어 없이 원하는 내용을 입력하는 것만으로 결과를 얻을 수 있어 접근성이 높다. 특히 이미지·음악 생성과 같은 취미 영역부터 과제와 업무 등 실용 영역까지 폭넓게 활용 가능하다는 점에서 활용도가 크다. ‘지브리풍’ 프로필 사진이나 AI 커버곡, 패러디 영상 등은 이러한 흐름을 보여주는 대표적인 사례다.

이처럼 AI의 장점이 부각되는 가운데, 그 이면에 대한 우려도 함께 제기되고 있다. 다양한 분야에서 활용이 확대되면서 남용과 과의존 문제 역시 동시에 나타나고 있기 때문이다. AI의 결과에는 오류 가능성이 존재함에도 불구하고 이를 무비판적으로 수용할 경우, 잘못된 정보가 확산되거나 여론 형성에 영향을 미칠 수 있다는 지적도 나온다.

극단적인 사례로 지난해 미국에서는 AI가 범죄를 부추기는 사건이 발생하며 과의존에 대한 경각심을 불러일으켰다. 이러한 문제는 대학 사회에서도 확인된다. 과제 수행 과정에서 AI 의존도가 높아지면서 결과물의 변별력이 떨어지고 성의가 부족하다는 지적이 이어지고 있다. 이처럼 편리함이라는 장점이 오히려 사용자의 주체성을 약화시키며, AI가 ‘양날의 검’으로 작용할 수 있다는 우려가 제기된다.

전문가들은 AI를 절대적인 기준이 아닌 다양한 정보 중 하나로 활용하는 태도가 필요하다고 강조한다. AI 역시 오류를 포함할 수 있는 만큼 제공되는 정보를 비판적으로 검토하고 검증하려는 노력이 요구된다. AI가 방대한 정보를 제시하더라도 이는 학습 데이터를 기반으로 한 결과에 불과하며, 최종적인 판단과 책임은 결국 사용자에게 있다는 점을 인식할 필요가 있다.

작가와 대화를 시작하세요.
사회