Wilson Centre

[인공지능] 의학교육에서 인공지능(AI in Medical Education)

Meded. 2024. 5. 18. 03:04

  1. 소개 및 배경:
    • 연사는 덴마크 출신으로, 덴마크에서는 교육과 의료가 무료로 제공되며, 이러한 배경이 의학교육에 대한 연사의 관점을 형성함.
    • 덴마크의 문화적 규범은 자랑을 금지하고 평등을 강조, 이는 연사의 AI와 의학교육에 대한 접근 방식을 형성함.
  2. 임상 성과와 AI:
    • 임상 기술과 환자 결과 간의 관계는 잘 문서화되어 있지만, 경험이나 펠로우십을 완료했다고 해서 유능함이 보장되는 것은 아님.
    • 프랑스 초음파사에 대한 연구는 진단 정확도를 개발하기 위해 연습량이 중요함을 보여주지만, 일부 임상의는 광범위한 경험에도 불구하고 여전히 미흡함.
  3. 임상 훈련의 도전과제:
    • 많은 임상의는 감독 부족과 일관성 없는 피드백으로 인해 임상 업무에 적절히 준비되지 않았다고 느낌.
    • 시뮬레이션 기반 훈련은 기본 기술을 가르치는 데 성공적이었지만, 실제 임상 환경에서 직면하는 문제를 완전히 해결하지는 못함.
  4. AI의 잠재력:
    • AI는 시뮬레이션 기반 훈련에서 달성된 것과 유사한 일관된 피드백을 임상 환경에서 제공할 수 있음.
    • AI가 피부 종양 진단에서 피부과 전문의를 능가하는 초기 성공 사례는 AI의 잠재력을 강조함.
  5. 제한 사항 및 도메인 전환:
    • AI 모델은 다른 데이터셋 및 환경에서 일반화하는 데 종종 실패, 예를 들어 미국 데이터를 기반으로 한 AI가 덴마크 데이터셋에서 잘못된 분류를 한 사례.
    • AI는 도메인 전환, 편향, 설명 가능성 등에서 어려움을 겪음.
  6. 지원 도구로서의 AI:
    • AI는 인간 임상의를 대체하기보다는 보완하여, 특히 인간이 대처하기 어려운 영역에서 지원해야 함.
    • 효과적인 인간-AI 협력은 AI가 인간 성과의 특정 약점을 해결하는 데 달려 있음.
  7. 피드백 및 평가:
    • AI는 가치 있는 피드백을 제공할 수 있지만, 개인의 필요와 맥락에 맞춰야 함.
    • AI 기반 평가는 전문가 평가만큼 효과적일 수 있지만, 종종 결정의 이유를 이해하기 어려움.
  8. 설명 가능성과 견고성:
    • AI 모델이 설명 가능하고 다양한 환경에서 견고성을 유지하는 것이 중요함.
    • AI 모델 개발은 공정성, 사용성, 견고성을 교육 이론 및 실용적 요구와 균형 있게 고려해야 함.
  9. 데이터 및 일반화 가능성:
    • 강력한 AI 모델을 훈련시키기 위해 대규모 데이터셋이 필요하지만, 데이터 가용성은 전 세계적으로 다름.
    • 전이 학습을 통해 사전 훈련된 모델에 현지 데이터를 추가하여 AI 모델을 다양한 환경에 적응시킬 수 있음.
  10. 윤리적 및 실용적 고려 사항:
    • AI 편향 및 현재 모델의 한계를 인식하는 것이 중요함.
    • AI는 인간 판단을 보완하고 기존 평가의 편향을 강조하는 데 사용되어야 함.
  11. 미래 방향:
    • 의료 교육자, 데이터 과학자, 임상의 간의 협력이 필요하며, 기술적으로 견고하고 실용적으로 유용한 AI 모델을 개발해야 함.
    • AI 리터러시를 의학교육에 포함시켜 AI 도구의 안전하고 효과적인 사용을 보장해야 함.
  12. 연구 및 구현:
    • 연구는 명확한 목표를 가지고 실제 문제를 해결하는 데 중점을 두어야 함.
    • 산업과의 협력 및 학제 간 협력이 AI 발전에 중요함.


질문과 답변 요약

질문 1 :

  • 질문: AI가 인간 정보 처리와 유사한 방식을 사용하는데, AI가 전문가처럼 직관적으로 학습한다면, 명시적인 모델을 통해 중간 결과를 사용하는 것이 가능할까요?
  • 답변: AI의 적응성을 통해 전문가와 초보자에게 다른 피드백을 제공할 수 있으며, 이는 중간 결과를 사용하는 것이 중요합니다. 기본 과학 지식을 지원하는 방식으로 모델을 훈련하여 초보자의 성과를 향상시킬 수 있습니다.

질문 2:

  • 질문: 인간이 의사 결정을 할 때 무의식적으로 빠르게 판단하는데, AI가 명시적이고 기계적인 설명을 제공할 수 있다면 유용한 교육 도구가 될까요?
  • 답변: AI가 명시적이고 기계적인 설명을 제공하는 것은 가능하며 유용한 교육 도구가 될 수 있습니다. 다만, AI가 인간처럼 편향과 휴리스틱을 통해 결정을 내리는 경우도 많아, 이러한 설명을 제공하는 AI를 개발하는 것이 중요합니다.

질문 3:

  • 질문: AI 모델의 발전 속도가 빠른데, 연구 결과가 빠르게 무의미해질 수 있는 문제를 어떻게 해결할 수 있을까요?
  • 답변: 특정 AI 모델보다는 일반화 가능한 통찰을 얻는 것이 중요하며, 이론을 기반으로 연구를 수행하면 모델의 변화에도 불구하고 유의미한 결과를 얻을 수 있습니다.

질문 4:

  • 질문: AI 모델에 투입되는 데이터의 신뢰성과 편향 문제를 어떻게 해결할 수 있을까요?
  • 답변: 명확한 변수 선택과 편향의 명시적 모델링을 통해 해결할 수 있습니다. 공개 소스 모델을 사용하여 데이터를 수정하고 훈련하는 것도 한 방법입니다.

질문 5:

  • 질문: 교육자나 기관이 AI 모델이나 장치를 제한해야 할까요?
  • 답변: 의료 AI는 엄격하게 규제되지만, 교육 AI는 그렇지 않습니다. 규제는 필요하지만, 지나친 규제는 오히려 대형 회사만 AI를 개발하게 만들 수 있습니다.

질문 6:

  • 질문: 많은 의료 교육 데이터가 신뢰성이 낮은데, 데이터를 개선하고 평가 관행을 개선하는 것이 필요할까요?
  • 답변: 많은 데이터가 있으면 잘못된 레이블을 감지할 수 있지만, 데이터 수집과 평가 관행을 개선하는 것이 중요합니다.

질문 7:

  • 질문: AI가 의료에서 인간보다 더 나은 결정을 내릴 때 환자들은 AI를 신뢰할까요?
  • 답변: 대부분의 환자는 AI를 긍정적으로 받아들일 가능성이 높습니다. 그러나 학습자에게는 더 많은 평가를 받는 것이 항상 최선이 아닐 수 있습니다.

질문 8:

  • 질문: AI 사용을 장려하거나 억제하는 것이 좋을까요? AI를 국가 면허 시험에 포함해야 할까요?
  • 답변: AI 사용에 대한 비판적 사고와 한계를 이해하는 것이 중요하며, AI 사용을 위한 교육을 체계적으로 제공해야 합니다.

질문 9:

  • 질문: AI가 의료 교육에 큰 영향을 미칠까요? AI와의 상호작용을 훈련하는 것이 필요할까요?
  • 답변: AI 사용은 효율성을 높일 수 있지만, AI가 제공하는 빠른 답변에 의존하는 것의 대가를 이해하고, 무엇을 희생할 것인지 명확히 하는 것이 중요합니다.

질문 10:

  • 질문: AI 기술 사용에 대한 가치 제안이 이미 환경에 영향을 미치고 있는 상황에서, 연구자들이 이 문제를 어떻게 다루어야 할까요?
  • 답변: 학제 간 협력을 통해 AI 개발에 참여하고, 데이터 과학자들과의 협력이 중요합니다. 연구자들이 적극적으로 협력하고, AI 개발에 참여하는 것이 필요합니다.


David Wiljer의 강의 요약

서론:

  • David Wiljer는 AI와 의학교육에 대한 자신의 경험을 반영하며 강의를 시작.
  • AI는 오랜 역사를 가지고 있지만, 지난 10년간의 경험과 AI 발전에 대해 논의.

디지털 연민(Digital Compassion)과 기술:

  • Wiljer는 디지털 연민이라는 개념을 설명하며, 이 개념이 의사와 환자 간의 관계와 건강의 민주화를 강조.
  • 디지털 연민은 고통 인식과 교육, 그리고 AI와의 결합을 포함하는 여러 요소로 구성됨.

AI와 의학교육의 역사:

  • 2014년, Rachel Ellaway의 논문이 데이터가 연구자와 학자로서의 역할에 어떤 영향을 미치는지에 대한 논의를 시작.
  • 의학교육에서 AI의 역할에 대한 초기 질문과 논의가 진행됨.
  • AI가 임상 환경에서 어떤 역할을 할 수 있는지에 대한 다양한 반응과 토론.

AI의 발전과 도전:

  • 2019년, Harvard Business Review에서 AI 조직 구축에 대한 논의가 이루어짐. 이는 모든 사람을 교육해야 한다는 결론으로 이어짐.
  • AI 교육 프로그램 개발을 위한 대규모 보조금 수령과 프로그램 개발.
  • AI와 관련된 지식, 기술, 태도를 변화시키기 위한 교육 프로그램 개발과 관련된 기초적인 질문들에 대한 연구.

교육과 연구:

  • AI 교육 프로그램은 지식 기반으로, 문제 기반 학습을 통해 문제 해결에 집중.
  • 2024년, AI 교육에 대한 주요 리뷰가 나옴. 이는 AI 사용 사례와 관련된 다양한 카테고리를 생성하고, 공통된 대화를 위한 도구를 제공.

A scoping review of artificial intelligence in medical education: BEME Guide No. 84

https://www.tandfonline.com/doi/full/10.1080/0142159X.2024.2314198

 

  • 공평성과 AI에 대한 대화를 위한 분류 체계가 중요하게 떠오름.

건강 형평성과 AI:

  • AI가 건강 형평성을 증진시키는 기회와 도전에 대해 연구.
  • AI가 임상 환경에서 연민을 어떻게 증명할 수 있는지에 대한 논의.
  • 교육과 책임 있는 구현을 통해 AI가 어떻게 건강 형평성을 증진시킬 수 있는지에 대한 질문.

조직적 질문과 AI:

  • AI가 교란 기술로서 나타날 때, 건강 전문직 협회가 어떻게 변화에 참여하고 정당성을 부여할지에 대한 연구.
  • AI와 관련된 조직적 수준의 질문과 범위에 대한 연구.

결론 및 미래 연구 질문:

  • 새로운 개념적 변화나 아이디어가 의학교육에 대한 이해를 어떻게 발전시킬 수 있을지에 대한 질문.
  • 현재의 연구 질문들이 얼마나 유효한지, 어떤 것이 유용하지 않은지에 대한 검토.
  • 의료 교육자의 전문적 정체성이 AI 도입에 따라 어떻게 변화할지에 대한 논의.
  • AI가 환자와의 신뢰와 연민을 어떻게 구축할 수 있을지에 대한 질문.

주요 내용 요약:

  1. 디지털 연민: 고통 인식과 교육, 그리고 AI와의 결합을 통한 건강의 민주화.
  2. AI와 의학교육의 역사: 데이터가 연구자와 학자로서의 역할에 미치는 영향과 AI의 초기 논의.
  3. AI 발전과 도전: AI 조직 구축과 모든 사람을 교육해야 한다는 결론.
  4. 교육과 연구: 문제 기반 학습과 AI 교육 프로그램 개발.
  5. 건강 형평성과 AI: AI가 건강 형평성을 증진시키는 기회와 도전에 대한 연구.
  6. 조직적 질문과 AI: AI 도입에 따른 조직적 변화와 정당성 부여.
  7. 미래 연구 질문: 새로운 개념적 변화, 연구 질문의 유효성, 의료 교육자의 전문적 정체성 변화, AI와 환자 간의 신뢰 구축.


Alaa Youssef의 강의 요약

서론:

  • Alaa Youssef는 Stanford의 Halse 주간에 참석 중이었으며, 이 주간은 책임 있는 AI에 대한 연속 회의를 포함함.
  • Wilson Center에서의 경험이 Youssef의 연구 방법과 질문에 영향을 미침.

주요 질문:

  • 향후 5~10년 동안 의료 전문가가 갖추어야 할 전문 지식과 역량은 무엇인가?
  • 실습 경험을 통합하는 효과적인 방법은 무엇인가?

윤리적 문제와 AI 개발:

  • AI 알고리즘 개발에서 발생하는 윤리적 문제와 문화적 관행이 AI 도입의 주요 장애 요인임.
  • 고품질 건강 데이터 세트의 제한된 접근이 주요 장애물로 작용함.

데이터 흐름과 편향:

  • 데이터 흐름에서 편향이 발생할 수 있는 지점을 분석하고 데이터 주권과 소유권 간의 긴장을 이해하는 데 중점.
  • Stanford IMI Center와 Gordon Binore Foundation의 협력으로 데이터 공유와 고품질 데이터 세트의 공공 접근성을 강화하는 프로젝트 진행.

조직적 요인:

  • 조직이 데이터 공유를 꺼리는 이유와 동기를 연구.
  • 데이터 공유 동기는 조직의 미션과 일치할 때 더 높아짐.
  • 학술 기관과 정부 기관은 공공의 이익과 과학적 발견을 촉진하기 위해 데이터를 공유하려는 경향이 있음.

데이터 공유의 장벽:

  • 평판, 재정적 책임, 법적 책임 등이 데이터 공유의 주요 장애 요인으로 작용.
  • 데이터 재식별과 같은 위험 요소가 조직의 데이터를 공유하려는 의지에 영향을 미침.

사례 연구:

  • 18개의 다양한 조직을 대상으로 다중 사례 연구를 진행하여 데이터 공유 동기와 장벽을 분석.
  • 데이터 공유를 촉진하려면 조직의 미션과 데이터 공유 우선순위가 일치해야 함.

Organizational Factors in Clinical Data Sharing for Artificial Intelligence in Health Care

https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2813016

임상 알고리즘 평가:

  • 알고리즘이 임상 환경에서 사용되기 전에 윤리적 고려사항과 비즈니스 사례를 평가.
  • 알고리즘이 임상적 이익과 위험을 어떻게 비교할 수 있는지 평가.

AI와 언어 모델:

  • ChatGPT와 같은 대형 언어 모델이 임상 환경에서 어떻게 사용될 수 있는지 연구.
  • 언어 모델이 임상적 이익을 제공할 수 있지만, 모델의 성능과 위험을 평가하는 것이 중요함.

결론 및 윤리적 고려사항:

  • AI를 임상 환경에 통합할 때의 윤리적 문제와 고려사항.
  • 윤리적 인터뷰와 연구를 통해 NIH의 윤리적 가치를 평가.

주요 내용 요약:

  1. 윤리적 문제와 AI 개발: AI 알고리즘 개발에서 발생하는 윤리적 문제와 문화적 관행이 주요 장애 요인임.
  2. 데이터 흐름과 편향: 데이터 흐름에서 편향이 발생할 수 있는 지점을 분석하고 데이터 주권과 소유권 간의 긴장을 이해하는 데 중점.
  3. 조직적 요인: 조직이 데이터 공유를 꺼리는 이유와 동기를 연구.
  4. 데이터 공유의 장벽: 평판, 재정적 책임, 법적 책임 등이 데이터 공유의 주요 장애 요인으로 작용.
  5. 임상 알고리즘 평가: 알고리즘이 임상 환경에서 사용되기 전에 윤리적 고려사항과 비즈니스 사례를 평가.
  6. AI와 언어 모델: 대형 언어 모델이 임상 환경에서 어떻게 사용될 수 있는지 연구.
  7. 결론 및 윤리적 고려사항: AI를 임상 환경에 통합할 때의 윤리적 문제와 고려사항.