자율주행 자동차는 운전자의 개입 없이 주변 환경을 인식하고 주행 상황을 판단해 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 자동차다.최근 자율주행 자동차는 여러 이점으로 관심을 끌고 있는 분야이다.완전한 자율주행이 가능하다면 음주운전 졸음운전 난폭운전 보복운전 뺑소니 등 사람이 운전할 때 나타나는 문제점을 아예 없앨 수 있다.또한 운전을 할 수 없거나 어려운 교통약자도 손쉽게 자가용을 이용할 수 있다.사람은 전혀 운전을 하지 않기 때문에 차 안에서 느긋하게 지낼 수도 있다.
미국자동차공학회는 자율주행 기술 수준에 따라 6단계로 나뉜다.
0단계 비자동화 – 운전자는 상황을 파악하여 운전한다
1단계 운전자 보조 – 운전자는 상황을 파악하고 운전한다 → 시스템이 운전자의 가속 또는 감속 또는 조향보조 → 스마트 크루즈 또는 차선유지보조
2단계 부분 자동화 – 운전자는 상황을 파악하고 운전한다 → 고속도로 주행 보조 → 원격 스마트 주차 보조
3단계 조건부 자동화 – 운전자가 시스템의 요청에 따라 운전함 → 시스템 상황파악 후 운전 → 교통혼잡시 저속주행 → 고속도로주행 → 자동차로 변경
제4단계 고도자동화 – 운전자가 시스템에 개입하지 않음 → 시스템이 정해진 도로와 조건하에서 운전하는
5단계 완전 자동화→시스템이 모든 도로와 조건에서 운전된다.
4단계와 5단계는 사람이 운전에 전혀 개입하지 않기 때문에 사고가 절대로 발생하지 않아야 한다.그러나 현재까지 4, 5단계에서 사고가 발생한 사례가 있다.운전자는 운전할 때 정보수집→의사결정→정보제공→자동차 조작의 단계를 거친다. 하지만 AI의 정보수집 과정이나 의사결정 과정에서 센서 오류 또는 시스템 오류로 사고가 발생한 사례가 있어 자율주행 자동차의 안전성을 아직 담보하기는 어렵다.
보안 관련 문제도 있다. 운전자가 사람이 아닌 AI일 때 차량이 해킹당하면 자율주행자동차가 존재하는 세계 곳곳에서 테러와 맞먹는 대형사고가 발생할 수 있다.
한편, 사고가 일어났을 때도 역시 문제가 나타난다. 현재 자율주행 시 사고가 났을 때의 책임 소재가 분명치 않다. 운행자가 책임을 져야 할지, 업체가 책임을 져야 할지 명확한 기준이 없다. 게다가 운행자의 책임이라고 해도 보험 회사에서 자율주행 사고까지 보험에 포함시킬지 등 논란이 있다.
이 밖에도 윤리적 문제인 트롤리 딜레마가 언급되기도 한다.트롤리 딜레마는 브레이크가 고장 난 상황에서 그대로 직진한다면 5명이 차에 치여 목숨을 잃고, 방향을 바꾸면 1명이 목숨을 잃는 경우처럼 긴급한 상황에서 어떤 판단을 해도 누군가 목숨을 잃는 상황이다.
모든 자동차가 자율주행 자동차라면 기술적 관점에서 사고가 날 수 있는 환경을 만들지 않는 것이 중요하지만 자율주행 자동차와 사람이 운전하는 자동차가 섞인 도로에서는 많은 변수가 있다.운행자와 보행자의 우선순위, 어린이와 노인의 우선순위, 소수보다 다수를 우선하는 공리주의 등 다양한 상황에서 인공지능이 인간처럼 윤리적인 판단을 할 수 있을지 의문이다.자율주행자동차가 활성화되려면 인공지능의 윤리적 판단이 사람의 윤리적 판단 수준과 유사할 필요가 있다.