연구자가 아무도 말하지 않은 내용을 생성하는 의료 노트 작성 도구에 대한 우려 — Nabla는 OpenAI의 Whisper로 구동됩니다

전문: https://www.tomshardware.com/tech-industry/artificial-intelligence/...

원저자: Jowi Morales | 작성일: 2024-10-27 15:13
사이트 내 게시일: 2024-10-27 15:17
이 기사는 OpenAI의 Whisper 오디오 전사 도구의 정확성에 대한 심각한 우려를 다루고 있으며, 특히 의료 환경에서의 문제를 강조합니다. 미시간 대학교의 연구자는 그가 검사한 전사 내용의 80%가 허위 텍스트를 포함하고 있음을 발견하여, 이러한 부정확성이 의료 분야에서 초래할 수 있는 잠재적 결과에 대한 경각심을 불러일으켰습니다.

AI 환각 문제는 도구가 잘못되거나 비논리적인 정보를 생성하는 것으로, 잘 알려진 문제입니다. 이 기사는 Whisper의 출력에서 나타나는 문제적인 예시를 강조하며, 비논리적인 구문과 잘못된 의료 용어가 포함되어 있어 환자 치료에 심각한 오류를 초래할 수 있음을 지적합니다.

이러한 문제에도 불구하고, 45,000명 이상의 임상의가 사용하는 AI 어시스턴트인 Nabla는 환자-의사 상호작용을 전사하는 데 Whisper를 계속 의존하고 있습니다. 회사는 의료 언어에 맞게 도구를 조정했다고 주장하지만, OpenAI는 알려진 부정확성 때문에 중요한 전사 작업에 Whisper 사용을 권장하지 않습니다. Nabla의 최고 기술 책임자는 환각 문제를 인정하며 해결책을 모색하고 있다고 밝혔지만, 도구의 설계로 인해 원본 오디오 녹음과의 비교가 불가능하여 오류 검증이 복잡해지고 있습니다.

이 기사는 AI가 생성한 출력에 대한 인간의 감독의 중요성을 강조하며, AI가 의료 문서화에 도움을 줄 수 있지만 인간의 판단을 대체해서는 안 된다고 제안합니다. 임상의가 전사를 검토하고 승인하는 것이 정확성과 환자 안전을 보장하는 데 필수적이며, 의료와 같은 고위험 환경에서 AI의 현재 한계를 부각시키고 있습니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: Software
태그: AI (1093) OpenAI (171) healthcare (7) medical transcription (1) Whisper (1) Nabla (1) AI hallucination (1) clinicians (1) patient safety (1)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.