생성형 AI를 활용해 교과서를 개인화하고 멀티모달로 재구성하는 Learn Your Way를 소개합니다. 초기 연구에서 학습 유지력이 향상됐으며, 몰입형 텍스트·퀴즈·슬라이드·오디오·마인드맵 등 다양한 표현과 개인화 파이프라인으로 학생 주도 학습을 지원합니다.
교과서는 교육의 초석이지만, 근본적인 한계가 있습니다. 모든 학습자에게 똑같이 적용되는 획일적 매체라는 점입니다. 교과서를 수작업으로 제작하려면 많은 인적 노력이 필요합니다. 그 결과, 학습을 더 효과적이고 몰입감 있게 만들어 줄 수 있는 대안적 관점, 다양한 형식, 맞춤형 변형을 충분히 담기 어렵습니다. 구글은 원본 자료의 무결성을 보존하면서도 대안적 표현이나 개인화된 예시를 자동으로 생성하기 위해 생성형 AI(GenAI)를 어떻게 활용할 수 있을지 탐구하고 있습니다. 학생들이 변화하는 필요에 맞는 다양한 형식으로 자료를 탐색하며 자신의 학습 여정을 스스로 설계할 수 있다면 어떨까요? 모든 학습자만큼이나 고유한 교과서를 새롭게 만들어낼 수 있다면 어떨까요?
최근 GenAI의 발전은 이러한 비전을 현실에 한 걸음 더 가깝게 만들고 있습니다. 오늘 우리는 Google Labs에 공개된 연구 실험인 Learn Your Way를 소개합니다. 이 실험은 GenAI가 교육 자료를 어떻게 변환해 모든 학생에게 더 효과적이고 몰입적이며 학습자 주도적인 경험을 제공할 수 있는지를 탐구합니다. 이 글에서는 Learn Your Way를 뒷받침하는 연구와 교육학적 기반을 개괄하고, 자세한 내용은 동반된 기술 보고서에서 확인하실 수 있습니다. 또한 초기 효과 지표도 공유합니다. 효능 연구에서 Learn Your Way를 사용한 학생들은 표준 디지털 리더를 사용한 학생들보다 유지(기억) 검사에서 평균 11%포인트 더 높은 점수를 받았습니다.
우리의 접근법은 학습 경험을 증진하기 위해 함께 작동하는 두 가지 핵심 축 위에 세워졌습니다. (1) 콘텐츠의 다양한 멀티모달 표현을 생성하는 것, (2) 개인화를 향한 기초적인 단계를 밟는 것입니다.
대표적 이중 부호화 이론은 서로 다른 표현들 사이에 정신적 연결을 만들수록 뇌 속의 기저 개념 스키마가 강화된다고 설명합니다. 이어진 연구에서도 학생들이 다양한 형식으로 정보를 능동적으로 다룰 때, 해당 주제에 대한 더 견고하고 완전한 정신 모델을 구축한다는 점이 확인되었습니다. 이에 착안해, 우리는 학습자가 이해에 가장 도움이 되는 여러 형식과 모달리티를 선택하고 혼합할 수 있는 주도권을 제공합니다. 또한 K-12 교육 환경에서 개인화는 점차 지향해야 할 표준으로 자리 잡고 있으며, 우리의 연구도 이를 반영했습니다. 우리는 학생의 특성에 맞게 콘텐츠를 조정함으로써 공감 가능성과 효과를 높이는 것을 목표로 합니다. 더 나아가 학습자의 실시간 반응에 따라 경험을 추가로 맞춤화할 수 있도록 퀴즈 기능을 포함했습니다. 이러한 개인화는 동기를 높이고 학습을 심화하는 데 강력한 방법이 될 수 있습니다.
이를 실현하기 위해 우리는 LearnLM(현재 Gemini 2.5 Pro에 직접 통합된, 최고 수준의 교육학 내재 모델군)을 활용한 계층적 기술 접근법을 적용했습니다. 첫 번째 계층은 다중 콘텐츠 표현을 생성하는 두 번째 계층의 기반이 되는 고유한 개인화 파이프라인입니다. 출발점은 교과서 PDF이지만, 이 접근법은 다른 형태의 원본 자료에도 적용할 수 있습니다.
Learn Your Way 인터페이스는 학습자에게 학년과 관심사(예: 스포츠, 음악, 음식)를 선택하도록 요청합니다. 먼저 원본 자료의 범위를 유지한 채 학습자가 보고한 학년 수준에 맞도록 난이도를 재조정합니다. 이어서 일반적인 예시를 학습자의 관심사에 개인화된 예시로 전략적으로 교체합니다. 이렇게 생성된 텍스트는 이후 모든 다른 표현을 만들어내는 기반이 되어, 개인화 효과를 전반으로 확산시키고 추가 개인화를 위한 파이프라인을 구성합니다.
원본 개인화 이후 우리는 콘텐츠의 여러 표현을 생성합니다. 마인드맵이나 타임라인과 같은 일부 표현은 Gemini의 폭넓은 능력을 직접 활용합니다. 반면 내레이터가 포함된 슬라이드와 같은 기능은 효과적인 교육학적 결과를 위해 다수의 특화된 AI 에이전트와 도구를 촘촘히 엮는 더 정교한 파이프라인이 필요합니다. 마지막으로, 교육적 시각 자료를 효과적으로 생성하는 등 특수한 과제는 최신 범용 이미지 모델로도 여전히 도전적이었습니다. 이를 극복하기 위해 우리는 교육용 일러스트 생성을 위해 특화된 전용 모델을 파인튜닝했습니다. 강력한 기반 모델, 다단계 에이전트 워크플로, 파인튜닝된 구성 요소의 결합을 통해 우리는 학습을 위한 고품질 멀티모달 표현을 폭넓게 생성할 수 있습니다.
우리의 연구는 Learn Your Way에서 살아납니다. 이 인터페이스는 개인화된 여러 콘텐츠 표현을 한데 모아 (1) 몰입형 텍스트, (2) 섹션 단위 퀴즈, (3) 슬라이드와 내레이션, (4) 오디오 수업, (5) 마인드맵을 제공합니다.
위의 표현들은 학습자에게 선택권을 제공하며, 모두 학습자가 선택한 학년 수준과 개인적 관심사에 맞춰 조정됩니다. 전반적인 경험에서 대화형 퀴즈는 역동적인 피드백을 제공하여 학생들이 어려움을 겪었던 특정 콘텐츠 영역을 다시 학습하도록 안내합니다. 이는 진정한 개인화를 향한 우리의 첫걸음입니다.
Learn Your Way의 교육학적 성과를 평가하기 위해, 우리는 OpenStax의 다양하게 구성된 10개의 원본 자료(무료 교육용 교과서 제공 기관)를 세 가지 개인화 설정으로 변환했습니다. 원본 자료는 역사부터 물리까지 여러 과목을 포괄했습니다. 이후 3명의 교육학 분야 전문가가 정확성, 범위 충실도, LearnLM 학습과학 원칙 등 교육학적 기준을 사용해 변환된 자료를 평가했습니다.
결과는 매우 긍정적이었습니다. 모든 교육학적 기준에서 평균 전문가 평점이 0.85 이상이었습니다. 더 자세한 평가는 기술 보고서를 참고하세요.
AI 기반 학습 도구는 학습 성과를 효과적으로 향상시키고 학생들이 실제로 사용하고 싶어 할 때에만 가치가 있습니다. Learn Your Way는 전 세계 파트너와 함께 연구를 수행하는 플랫폼으로 자리매김했으며, AI 기반 변환과 개인화가 성과에 어떤 영향을 미치는지 탐구하고, 우리가 만드는 것이 효과적이고 지역적 맥락에도 부합하는지 확인하고자 합니다.
최근 시카고 지역의 15–18세 학생 60명을 대상으로 무작위 대조 실험을 진행했습니다. 참가자들은 청소년 뇌 발달에 관한 교과서 내용을 학습할 시간을 최대 40분까지 부여받았고, Learn Your Way를 사용하는 그룹과 기존 디지털 PDF 리더를 사용하는 그룹으로 무작위 배정되었습니다.
학습 직후에는 퀴즈로, 3–5일 후에는 유지(기억) 테스트로 평가했으며, 두 평가 모두 내용 이해도를 잘 측정하도록 교육학 전문가들이 설계했습니다. 또한 학습 경험에 관한 설문을 실시했고, 정량 지표를 넘어 더 깊이 있는 통찰을 얻기 위해 모든 학생이 30분간의 질적 인터뷰에 참여해 보다 미묘한 피드백을 공유했습니다.
결과는 설득력이 있었고 통계적으로도 유의미했습니다. 주요 내용을 요약하면 다음과 같습니다. 자세한 내용은 기술 보고서를 참고하세요.
우리의 발견은 생성형 AI가 보다 효과적일 뿐 아니라 학습자의 역량을 강화하는 학습 경험을 만드는 데 활용될 수 있음을 시사합니다. 정적인 교과서를 상호작용적 매체로 발전시키고, 학생들에게 어떻게 학습할지에 대한 더 큰 주도권을 제공함으로써 학습 유지율이 향상되는 것을 확인했습니다.
이번 작업은 탐색의 시작에 불과합니다. 우리는 각 학습자의 고유한 필요와 진도에 지속적으로 적응하는 시스템을 지향하며, 콘텐츠를 맞춤화할 수 있는 더 많은 방법을 상상하고 있습니다. 개인화 교육을 향한 다음 걸음을 내딛으며, 교육학적 원리에 연구를 계속 근거하고, AI가 학습 효과에 미치는 영향을 측정하여, 앞으로 모든 학생이 자신에게 맞춤 설계된 고품질의 몰입형 학습 경험을 누릴 수 있도록 하겠습니다.
이번 작업에 기여한 Google Research LearnLM 팀에 감사의 인사를 전합니다: Alicia Martín, Amir Globerson, Amy Wang, Anirudh Shekhawat, Anisha Choudhury, Anna Iurchenko, Avinatan Hassidim, Ayça Çakmakli, Ayelet Shasha Evron, Charlie Yang, Courtney Heldreth, Dana Oria, Diana Akrong, Hairong Mu, Ian Li, Ido Cohen, Komal Singh, Lev Borovoi, Lidan Hackmon, Lior Belinsky, Michael Fink, Preeti Singh, Rena Levitt, Shashank Agarwal, Shay Sharon, Sophie Allweis, Tracey Lee-Joe, Xiaohong Hao, Yael Gold-Zamir, Yishay Mor, and Yoav Bar Sinai. 특별한 감사는 다음의 임원 후원자들께 드립니다: Niv Efron, Avinatan Hassidim, Yossi Matias, Ben Gomes.