- 소개 및 배경:
- 연사는 덴마크 출신으로, 덴마크에서는 교육과 의료가 무료로 제공되며, 이러한 배경이 의학교육에 대한 연사의 관점을 형성함.
- 덴마크의 문화적 규범은 자랑을 금지하고 평등을 강조, 이는 연사의 AI와 의학교육에 대한 접근 방식을 형성함.
- 임상 성과와 AI:
- 임상 기술과 환자 결과 간의 관계는 잘 문서화되어 있지만, 경험이나 펠로우십을 완료했다고 해서 유능함이 보장되는 것은 아님.
- 프랑스 초음파사에 대한 연구는 진단 정확도를 개발하기 위해 연습량이 중요함을 보여주지만, 일부 임상의는 광범위한 경험에도 불구하고 여전히 미흡함.
- 임상 훈련의 도전과제:
- 많은 임상의는 감독 부족과 일관성 없는 피드백으로 인해 임상 업무에 적절히 준비되지 않았다고 느낌.
- 시뮬레이션 기반 훈련은 기본 기술을 가르치는 데 성공적이었지만, 실제 임상 환경에서 직면하는 문제를 완전히 해결하지는 못함.
- AI의 잠재력:
- AI는 시뮬레이션 기반 훈련에서 달성된 것과 유사한 일관된 피드백을 임상 환경에서 제공할 수 있음.
- AI가 피부 종양 진단에서 피부과 전문의를 능가하는 초기 성공 사례는 AI의 잠재력을 강조함.
- 제한 사항 및 도메인 전환:
- AI 모델은 다른 데이터셋 및 환경에서 일반화하는 데 종종 실패, 예를 들어 미국 데이터를 기반으로 한 AI가 덴마크 데이터셋에서 잘못된 분류를 한 사례.
- AI는 도메인 전환, 편향, 설명 가능성 등에서 어려움을 겪음.
- 지원 도구로서의 AI:
- AI는 인간 임상의를 대체하기보다는 보완하여, 특히 인간이 대처하기 어려운 영역에서 지원해야 함.
- 효과적인 인간-AI 협력은 AI가 인간 성과의 특정 약점을 해결하는 데 달려 있음.
- 피드백 및 평가:
- AI는 가치 있는 피드백을 제공할 수 있지만, 개인의 필요와 맥락에 맞춰야 함.
- AI 기반 평가는 전문가 평가만큼 효과적일 수 있지만, 종종 결정의 이유를 이해하기 어려움.
- 설명 가능성과 견고성:
- AI 모델이 설명 가능하고 다양한 환경에서 견고성을 유지하는 것이 중요함.
- AI 모델 개발은 공정성, 사용성, 견고성을 교육 이론 및 실용적 요구와 균형 있게 고려해야 함.
- 데이터 및 일반화 가능성:
- 강력한 AI 모델을 훈련시키기 위해 대규모 데이터셋이 필요하지만, 데이터 가용성은 전 세계적으로 다름.
- 전이 학습을 통해 사전 훈련된 모델에 현지 데이터를 추가하여 AI 모델을 다양한 환경에 적응시킬 수 있음.
- 윤리적 및 실용적 고려 사항:
- AI 편향 및 현재 모델의 한계를 인식하는 것이 중요함.
- AI는 인간 판단을 보완하고 기존 평가의 편향을 강조하는 데 사용되어야 함.
- 미래 방향:
- 의료 교육자, 데이터 과학자, 임상의 간의 협력이 필요하며, 기술적으로 견고하고 실용적으로 유용한 AI 모델을 개발해야 함.
- AI 리터러시를 의학교육에 포함시켜 AI 도구의 안전하고 효과적인 사용을 보장해야 함.
- 연구 및 구현:
- 연구는 명확한 목표를 가지고 실제 문제를 해결하는 데 중점을 두어야 함.
- 산업과의 협력 및 학제 간 협력이 AI 발전에 중요함.
질문과 답변 요약
질문 1 :
- 질문: AI가 인간 정보 처리와 유사한 방식을 사용하는데, AI가 전문가처럼 직관적으로 학습한다면, 명시적인 모델을 통해 중간 결과를 사용하는 것이 가능할까요?
- 답변: AI의 적응성을 통해 전문가와 초보자에게 다른 피드백을 제공할 수 있으며, 이는 중간 결과를 사용하는 것이 중요합니다. 기본 과학 지식을 지원하는 방식으로 모델을 훈련하여 초보자의 성과를 향상시킬 수 있습니다.
질문 2:
- 질문: 인간이 의사 결정을 할 때 무의식적으로 빠르게 판단하는데, AI가 명시적이고 기계적인 설명을 제공할 수 있다면 유용한 교육 도구가 될까요?
- 답변: AI가 명시적이고 기계적인 설명을 제공하는 것은 가능하며 유용한 교육 도구가 될 수 있습니다. 다만, AI가 인간처럼 편향과 휴리스틱을 통해 결정을 내리는 경우도 많아, 이러한 설명을 제공하는 AI를 개발하는 것이 중요합니다.
질문 3:
- 질문: AI 모델의 발전 속도가 빠른데, 연구 결과가 빠르게 무의미해질 수 있는 문제를 어떻게 해결할 수 있을까요?
- 답변: 특정 AI 모델보다는 일반화 가능한 통찰을 얻는 것이 중요하며, 이론을 기반으로 연구를 수행하면 모델의 변화에도 불구하고 유의미한 결과를 얻을 수 있습니다.
질문 4:
- 질문: AI 모델에 투입되는 데이터의 신뢰성과 편향 문제를 어떻게 해결할 수 있을까요?
- 답변: 명확한 변수 선택과 편향의 명시적 모델링을 통해 해결할 수 있습니다. 공개 소스 모델을 사용하여 데이터를 수정하고 훈련하는 것도 한 방법입니다.
질문 5:
- 질문: 교육자나 기관이 AI 모델이나 장치를 제한해야 할까요?
- 답변: 의료 AI는 엄격하게 규제되지만, 교육 AI는 그렇지 않습니다. 규제는 필요하지만, 지나친 규제는 오히려 대형 회사만 AI를 개발하게 만들 수 있습니다.
질문 6:
- 질문: 많은 의료 교육 데이터가 신뢰성이 낮은데, 데이터를 개선하고 평가 관행을 개선하는 것이 필요할까요?
- 답변: 많은 데이터가 있으면 잘못된 레이블을 감지할 수 있지만, 데이터 수집과 평가 관행을 개선하는 것이 중요합니다.
질문 7:
- 질문: AI가 의료에서 인간보다 더 나은 결정을 내릴 때 환자들은 AI를 신뢰할까요?
- 답변: 대부분의 환자는 AI를 긍정적으로 받아들일 가능성이 높습니다. 그러나 학습자에게는 더 많은 평가를 받는 것이 항상 최선이 아닐 수 있습니다.
질문 8:
- 질문: AI 사용을 장려하거나 억제하는 것이 좋을까요? AI를 국가 면허 시험에 포함해야 할까요?
- 답변: AI 사용에 대한 비판적 사고와 한계를 이해하는 것이 중요하며, AI 사용을 위한 교육을 체계적으로 제공해야 합니다.
질문 9:
- 질문: AI가 의료 교육에 큰 영향을 미칠까요? AI와의 상호작용을 훈련하는 것이 필요할까요?
- 답변: AI 사용은 효율성을 높일 수 있지만, AI가 제공하는 빠른 답변에 의존하는 것의 대가를 이해하고, 무엇을 희생할 것인지 명확히 하는 것이 중요합니다.
질문 10:
- 질문: AI 기술 사용에 대한 가치 제안이 이미 환경에 영향을 미치고 있는 상황에서, 연구자들이 이 문제를 어떻게 다루어야 할까요?
- 답변: 학제 간 협력을 통해 AI 개발에 참여하고, 데이터 과학자들과의 협력이 중요합니다. 연구자들이 적극적으로 협력하고, AI 개발에 참여하는 것이 필요합니다.
David Wiljer의 강의 요약
서론:
- David Wiljer는 AI와 의학교육에 대한 자신의 경험을 반영하며 강의를 시작.
- AI는 오랜 역사를 가지고 있지만, 지난 10년간의 경험과 AI 발전에 대해 논의.
디지털 연민(Digital Compassion)과 기술:
- Wiljer는 디지털 연민이라는 개념을 설명하며, 이 개념이 의사와 환자 간의 관계와 건강의 민주화를 강조.
- 디지털 연민은 고통 인식과 교육, 그리고 AI와의 결합을 포함하는 여러 요소로 구성됨.
AI와 의학교육의 역사:
- 2014년, Rachel Ellaway의 논문이 데이터가 연구자와 학자로서의 역할에 어떤 영향을 미치는지에 대한 논의를 시작.
- 의학교육에서 AI의 역할에 대한 초기 질문과 논의가 진행됨.
- AI가 임상 환경에서 어떤 역할을 할 수 있는지에 대한 다양한 반응과 토론.
AI의 발전과 도전:
- 2019년, Harvard Business Review에서 AI 조직 구축에 대한 논의가 이루어짐. 이는 모든 사람을 교육해야 한다는 결론으로 이어짐.
- AI 교육 프로그램 개발을 위한 대규모 보조금 수령과 프로그램 개발.
- AI와 관련된 지식, 기술, 태도를 변화시키기 위한 교육 프로그램 개발과 관련된 기초적인 질문들에 대한 연구.
교육과 연구:
- AI 교육 프로그램은 지식 기반으로, 문제 기반 학습을 통해 문제 해결에 집중.
- 2024년, AI 교육에 대한 주요 리뷰가 나옴. 이는 AI 사용 사례와 관련된 다양한 카테고리를 생성하고, 공통된 대화를 위한 도구를 제공.
A scoping review of artificial intelligence in medical education: BEME Guide No. 84
https://www.tandfonline.com/doi/full/10.1080/0142159X.2024.2314198
- 공평성과 AI에 대한 대화를 위한 분류 체계가 중요하게 떠오름.
건강 형평성과 AI:
- AI가 건강 형평성을 증진시키는 기회와 도전에 대해 연구.
- AI가 임상 환경에서 연민을 어떻게 증명할 수 있는지에 대한 논의.
- 교육과 책임 있는 구현을 통해 AI가 어떻게 건강 형평성을 증진시킬 수 있는지에 대한 질문.
조직적 질문과 AI:
- AI가 교란 기술로서 나타날 때, 건강 전문직 협회가 어떻게 변화에 참여하고 정당성을 부여할지에 대한 연구.
- AI와 관련된 조직적 수준의 질문과 범위에 대한 연구.
결론 및 미래 연구 질문:
- 새로운 개념적 변화나 아이디어가 의학교육에 대한 이해를 어떻게 발전시킬 수 있을지에 대한 질문.
- 현재의 연구 질문들이 얼마나 유효한지, 어떤 것이 유용하지 않은지에 대한 검토.
- 의료 교육자의 전문적 정체성이 AI 도입에 따라 어떻게 변화할지에 대한 논의.
- AI가 환자와의 신뢰와 연민을 어떻게 구축할 수 있을지에 대한 질문.
주요 내용 요약:
- 디지털 연민: 고통 인식과 교육, 그리고 AI와의 결합을 통한 건강의 민주화.
- AI와 의학교육의 역사: 데이터가 연구자와 학자로서의 역할에 미치는 영향과 AI의 초기 논의.
- AI 발전과 도전: AI 조직 구축과 모든 사람을 교육해야 한다는 결론.
- 교육과 연구: 문제 기반 학습과 AI 교육 프로그램 개발.
- 건강 형평성과 AI: AI가 건강 형평성을 증진시키는 기회와 도전에 대한 연구.
- 조직적 질문과 AI: AI 도입에 따른 조직적 변화와 정당성 부여.
- 미래 연구 질문: 새로운 개념적 변화, 연구 질문의 유효성, 의료 교육자의 전문적 정체성 변화, AI와 환자 간의 신뢰 구축.
Alaa Youssef의 강의 요약
서론:
- Alaa Youssef는 Stanford의 Halse 주간에 참석 중이었으며, 이 주간은 책임 있는 AI에 대한 연속 회의를 포함함.
- Wilson Center에서의 경험이 Youssef의 연구 방법과 질문에 영향을 미침.
주요 질문:
- 향후 5~10년 동안 의료 전문가가 갖추어야 할 전문 지식과 역량은 무엇인가?
- 실습 경험을 통합하는 효과적인 방법은 무엇인가?
윤리적 문제와 AI 개발:
- AI 알고리즘 개발에서 발생하는 윤리적 문제와 문화적 관행이 AI 도입의 주요 장애 요인임.
- 고품질 건강 데이터 세트의 제한된 접근이 주요 장애물로 작용함.
데이터 흐름과 편향:
- 데이터 흐름에서 편향이 발생할 수 있는 지점을 분석하고 데이터 주권과 소유권 간의 긴장을 이해하는 데 중점.
- Stanford IMI Center와 Gordon Binore Foundation의 협력으로 데이터 공유와 고품질 데이터 세트의 공공 접근성을 강화하는 프로젝트 진행.
조직적 요인:
- 조직이 데이터 공유를 꺼리는 이유와 동기를 연구.
- 데이터 공유 동기는 조직의 미션과 일치할 때 더 높아짐.
- 학술 기관과 정부 기관은 공공의 이익과 과학적 발견을 촉진하기 위해 데이터를 공유하려는 경향이 있음.
데이터 공유의 장벽:
- 평판, 재정적 책임, 법적 책임 등이 데이터 공유의 주요 장애 요인으로 작용.
- 데이터 재식별과 같은 위험 요소가 조직의 데이터를 공유하려는 의지에 영향을 미침.
사례 연구:
- 18개의 다양한 조직을 대상으로 다중 사례 연구를 진행하여 데이터 공유 동기와 장벽을 분석.
- 데이터 공유를 촉진하려면 조직의 미션과 데이터 공유 우선순위가 일치해야 함.
Organizational Factors in Clinical Data Sharing for Artificial Intelligence in Health Care
https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2813016
임상 알고리즘 평가:
- 알고리즘이 임상 환경에서 사용되기 전에 윤리적 고려사항과 비즈니스 사례를 평가.
- 알고리즘이 임상적 이익과 위험을 어떻게 비교할 수 있는지 평가.
AI와 언어 모델:
- ChatGPT와 같은 대형 언어 모델이 임상 환경에서 어떻게 사용될 수 있는지 연구.
- 언어 모델이 임상적 이익을 제공할 수 있지만, 모델의 성능과 위험을 평가하는 것이 중요함.
결론 및 윤리적 고려사항:
- AI를 임상 환경에 통합할 때의 윤리적 문제와 고려사항.
- 윤리적 인터뷰와 연구를 통해 NIH의 윤리적 가치를 평가.
주요 내용 요약:
- 윤리적 문제와 AI 개발: AI 알고리즘 개발에서 발생하는 윤리적 문제와 문화적 관행이 주요 장애 요인임.
- 데이터 흐름과 편향: 데이터 흐름에서 편향이 발생할 수 있는 지점을 분석하고 데이터 주권과 소유권 간의 긴장을 이해하는 데 중점.
- 조직적 요인: 조직이 데이터 공유를 꺼리는 이유와 동기를 연구.
- 데이터 공유의 장벽: 평판, 재정적 책임, 법적 책임 등이 데이터 공유의 주요 장애 요인으로 작용.
- 임상 알고리즘 평가: 알고리즘이 임상 환경에서 사용되기 전에 윤리적 고려사항과 비즈니스 사례를 평가.
- AI와 언어 모델: 대형 언어 모델이 임상 환경에서 어떻게 사용될 수 있는지 연구.
- 결론 및 윤리적 고려사항: AI를 임상 환경에 통합할 때의 윤리적 문제와 고려사항.
'Wilson Centre' 카테고리의 다른 글
[프로그램 평가] 교육 프로그램 평가 (AMEE Guide No. 29) (0) | 2024.05.22 |
---|---|
[프로그램 평가] 평가 이론 나무(AN EVALUATION THEORY TREE) (0) | 2024.05.21 |
[전문직업성] 정체성 안전이 전문직 정체성 형성에 미치는 영향 (0) | 2024.05.18 |
[테크놀로지] 테크놀로지-강화 의학교육: 허상과 희망을 넘어서 (0) | 2024.05.18 |
[프로그램 평가] 평가 이론 나무(AN EVALUATION THEORY TREE) (0) | 2024.05.16 |