연구원들은 인간 조종사가 비행기를 비행하는 AI 시스템의 비디오를 보라고 요청한 일련의 실험을 수행했습니다. 그런 다음 조종사는 AI 시스템이 무엇을하고 있는지와 이유를 추측하도록 요청 받았다. 결과는 조종사가 종종 AI 시스템의 의도를 올바르게 추측 할 수 없다는 것을 보여주었습니다.
연구자들은 이것이 AI 시스템이 인간과 매우 다른 방식으로 결정을 내리기 때문이라고 생각합니다. 인간은 자신의 경험과 지식에 따라 결정을 내리는 경향이있는 반면 AI 시스템은 데이터와 알고리즘을 기반으로 결정을 내립니다. 의사 결정 프로세스의 이러한 차이로 인해 인간이 AI 시스템이 수행하는 일을 이해하기가 어렵습니다.
연구원들은 그들의 발견이 항공의 미래에 영향을 미친다고 말합니다. AI 시스템이 더욱 발전함에 따라 비행 비행기에서 더 큰 역할을 할 것입니다. 그러나 인간이 사고를 피하기 위해 AI 시스템의 결정을 이해할 수 있도록하는 것이 중요합니다.
이 연구 결과에 따르면 AI 시스템과 협력 할 조종사에게는 새로운 교육 방법이 필요할 수 있습니다. 이러한 교육 방법은 조종사가 AI 시스템을 결정하는 방법과 AI 시스템이 제공하는 정보를 해석하는 방법을 이해하는 데 도움이됩니다.
또한 연구원들은 AI 시스템이 인간과 의사 소통하는 새로운 방법을 개발하는 것이 중요하다고 말합니다. 이를 통해 인간이 AI 시스템의 결정을 이해하고 상호 작용하는 방법에 대한 정보에 근거한 결정을 내릴 수 있습니다.