대규모 언어 모델(LLM)과 챗봇에 ‘생각’을 맡기는 것이 우리의 인지, 관계, 글쓰기, 경험, 배움에 어떤 영향을 미치는지 살펴보고, 무엇을 자동화로부터 지켜야 하는지 가치의 관점에서 논한다.
2026년 1월 30일 먼저 독자께 드리는 말: 이번 글은 평소보다 깁니다. 서로 연결된 여러 쟁점을 한 글에서 다루기로 했고, 길이에 지나치게 제약을 두지 않았습니다. 현대의 브라우징 습관과 온라인 매체의 양을 고려하면, 이 글은 더 흥미로운 읽을거리로 빠르게 넘겨질지도 모릅니다. 탭을 곧바로 닫기 전에, 아래로 스크롤해 결론을 읽어 보시길 권합니다. 그 과정에서 생각할 거리를 조금이나마 드릴 수 있기를 바랍니다. 물론 끝까지 모두 읽으신다면, 그 놀라운 집중력에 박수를 보냅니다.
대규모 언어 모델(LLM)의 사용에 대한 흔한 비판은, 그것이 우리의 인지 능력을 약화시킬 수 있다는 점이다. 전형적인 논리는 어떤 과업을 외주화하면 정신적 퇴화(위축)가 쉽게 일어날 수 있다는 것이다. 이것이 어느 정도 사실인지는 신경과학자, 심리학자 등 사이에서 계속 논의 중이지만, 특정 기술은 “쓰지 않으면 잃는다(use it or lose it)”는 이해가 직관적으로도 경험적으로도 타당해 보인다.
더 중요한 질문은 어떤 종류의 사용이 다른 종류보다 더 낫거나 더 나쁜지, 그렇다면 어떤 경우인지다. 블로그 글 The lump of cognition fallacy에서 Andy Masley는 이를 자세히 논한다. 그가 문제에 접근하는 출발점은 “해야 할 생각의 양은 고정돼 있다”는 생각에 도전하는 것이다. 그리고 이 생각이 사람들로 하여금 챗봇에 “생각을 외주”하면 우리가 게으르고 덜 똑똑해지거나, 다른 방식으로 인지 능력에 부정적인 영향을 줄 것이라는 결론에 이르게 한다는 점을 지적한다. 그는 이를 경제에서 해야 할 일이 유한하다는 오해(흔히 “노동량 고정의 오류(lump of labour fallacy)”라 불리는 것)와 비교한다. 그의 관점은 “생각은 종종 더 생각할 거리를 낳는다”는 것이며, 따라서 기계가 우리 대신 생각하도록 두는 것을 걱정할 필요가 없다는 것이다. 우리는 그 대신 다른 것들을 생각할 수 있게 될 뿐이라는 주장이다.
Masley의 글을 읽고 나는 오랫동안 머릿속에서 맴돌던 내 생각을 정리해 보고 싶어졌다. 그의 글이 이 논쟁에서 자주 등장하는 주장들을 담고 있기에, 그것을 참고점이자 출발점으로 삼는 것이 건설적일 수 있다고 느꼈다. 나는 Masley의 글에 나온 몇 가지 예를 통해 내가 어떻게 다르게 생각하는지 보여 주되, “해야 할 생각의 양은 제한돼 있다”는 주장된 오류를 넘어 범위를 확장하려 한다. 또한 Masley의 글을 미리 읽지 않아도 이 글을 이해할 수 있도록 최대한 노력했다. 내 목표는 그의 모든 주장을 반박하는 것이 아니라, 이 문제가 “생각은 종종 더 생각할 거리를 낳는다”보다 훨씬 복잡하다는 점을 설명하는 것이다. 전반적으로 이 글의 요지는 “생각을 외주화”하는 데 따르는 몇 가지 중대한 문제를 드러내는 데 있다.
LLM(대개 챗봇 형태)을 사용하는 것이 도움보다 해로울 수 있는 활동 범주를 정의할 수 있을까? Masley는 자신의 관점에서 생각을 외주화하는 것이 명백히 해로운 경우들을 나열한다. 내 관점을 온전히 설명하기 위해, 그의 목록을 인용하는 자유를 허락해 주길 바란다. 그는 다음과 같을 때 “인지(outsource your cognition)를 외주화하는 것은 나쁘다”고 쓴다.
- 앞으로 세상을 살아가는 데 필요할 복잡한 암묵지(tacit knowledge)를 쌓는 활동일 때.
- 누군가에 대한 배려와 현존(presence)의 표현일 때.
- 그 자체로 가치 있는 경험일 때.
- 흉내 내는 것이 기만적일 때.
- 반드시 정확해야 할 정도로 치명적으로 중요한 문제에 집중하는데, 외주 대상(상대)을 전적으로 신뢰하지 못할 때.
나는 근본적으로 다른 관점을 갖고 있음에도, 이 목록에 상당 부분 동의한다는 사실에 놀랐다. 다만 내 생각에 اختلاف은 위 범주에 속하는 활동의 “양”, 특히 세 가지 항목에서 갈린다.
먼저 “흉내 내는 것이 기만적일 때”라는 항목부터 보자. Masley는 다음 예를 든다.
누군가 데이팅 앱에서 메시지를 보내고 있다면, 상대는 당신이 실제로 어떤 사람인지 알고 싶어 한다.
맞는 말이다. 하지만 내 관점에서는 이런 친밀하거나 사적인 상황뿐 아니라, 일반적인 개인적 소통에서도 ‘내가 어떤 사람인지’를 흉내 내는 것은 기만적이다. 우리가 서로 소통할 때는 그 전체 교환을 규정하는 기대가 존재한다. 우리의 말과 표현이 기계에 의해 변환되도록 두는 것은 그 기대를 깨뜨리는 일이다. 우리가 선택하는 단어와 문장을 구성하는 방식은 많은 의미를 지닌다. 언어 모델이 이런 종류의 상호작용을 오염시키게 두면 직접적인 소통이 훼손된다. 직접 소통은 단지 정보 교환만이 아니라, 소통 당사자가 누구이며 어떻게 자신을 표현하는지에 의해 형성되는 관계에 관한 일이기도 하다.
나는 이것이 두 사람 사이의 소통뿐 아니라, 개인적 발신자가 인간 독자를 대상으로 전달하는 글 전반에도 해당한다고 본다. 어느 정도는 같은 원리가 적용된다. 최근 노르웨이 언론에서는 공적 글쓰기에서 LLM을 사용하면서 이를 밝히지 않는 문제를 두고 논쟁이 있었다. 온갖 의혹과 의견이 오갔는데, 이런 논의가 공론장으로 나오게 된 것은 매우 반갑다. 챗봇이 이렇게 널리 쓰이게 된 지금, 소통에 대한 우리의 기대를 명확히 할 필요가 있기 때문이다. 나는 인간 대 인간의 소통은 기계 변환이라는 중간 단계를 최대한 배제하는 것이 유익하다고 분명히 생각하지만, 모든 사람이 그 견해를 공유하는 것은 아니다. 앞으로 우리의 글쓰기 소통 대부분이 AI 모델과의 공동 저작이 될 것이라면, 우리는 그 사실을 인지하고 기대를 그에 맞춰 조정해야 한다. 일부는 글에 AI 사용 사실을 밝히기 시작했는데, 이는 LLM 사용에 대한 이해를 높이는 좋은 단계라고 생각한다. 텍스트가 LLM에 의해 작성되었는지 혹은 “공동 저작”되었는지는 수신자가 그것을 바라보는 방식에 중요한 영향을 준다. 그렇지 않은 척하는 것은 그저 거짓이다.
많은 사람들은 LLM이 사람들이 자신의 의견을 더 명확히 표현하도록 돕는 큰 혜택이라고 본다. 특히 모국어가 아닌 언어로 글을 쓰는 사람들, 혹은 학습 장애가 있는 사람들에게 그렇다. 의미가 사람에게서 비롯되는 한, LLM은 그 의미를 정확하고 효과적인 언어로 표현하도록 도울 수 있다. 이에 대해 나는 두 가지 주된 반론이 있다. 첫째는 텍스트에서 일어나는 일에 관한 것이다. 대부분의 경우 의미와 그 표현을 분리하는 것은 불가능하다. 이것이 바로 언어의 본질이다. 단어가 곧 의미다. 표현을 바꾸면 메시지가 바뀐다. 둘째는 우리에게 일어나는 일에 관한 것이다. 우리는 보조바퀴 없는 상태에서 성장하고 배우는 기회를 스스로 빼앗는다. LLM은 분명 글을 개선하는 데 도움을 줄 수 있지만, 표현을 AI 모델에 맡기는 순간 사고 과정—아이디어를 전개하는 과정—은 심각하게 절단된다. LLM은 곧 도움을 넘어 대체물이 되어, 자신의 목소리와 ‘두 발로 서 있을 때’ 우리가 어떤 사람이 될 수 있는지 발견할 기회를 박탈한다.
매우 신중하게 사용한다면 이런 두 가지 단점을 피하면서 챗봇을 사용할 수도 있겠지만, 문제는 LLM에서는 맞춤법/문법 수준의 도움과 모델이 사실상 당신 대신 글을 ‘써 버리는’ 것 사이의 경계가 유난히 얇다는 점이다. 이는 오늘날의 챗봇과 LLM 기반 도구의 설계에서 피할 수 없는 일이다. 구식 자동교정에서 생성형 언어 모델로의 도약은 너무 크다. 우리가 LLM을 사람들의 글쓰기 실력을 높이는 도구로 정말로 구상한다면, 지금의 챗봇보다 훨씬 더 신중하게 설계된 인터페이스가 필요하다.
동시에 나는 많은 사람들이 훨씬 더 공리주의적이라는 것도 안다. 그들은 그저 일을 끝내고 싶어 한다. 업무를 마치고, 보고서를 제출하고, 민원을 처리하고, 이메일을 답장하는 일을 가능한 한 효율적으로 해치운 뒤 하루를 이어가고 싶어 한다. 제2언어로 자신을 표현하는 데 LLM의 도움을 받는 것도, 그로부터 얼마나 배우는지와 별개로 유용해 보일 수 있다(다만 현재 최첨단 LLM들은 노르웨이어 텍스트 생성에 매우 서툴다는 사실 때문에, 번역에 대해서는 더 긍정적으로 보기 어렵다. 다른 비영어권 언어에서는 사정이 낫거나, 시간이 지나며 개선되길 바랄 뿐이다). 또한 LLM은 관료주의와 싸울 때—예를 들어 민원 제기나 보험사 대응—효율적일 수 있다. 이 경우 이점이 더 커 보인다. 그러나 우리는 그 “무기”가 테이블 양쪽 모두에 존재한다는 것을 기억해야 한다. 관련 당사자 모두가 단어 생성기를 장착하게 되면 관료적 절차는 어떻게 될까?
나는 이런 의견을 말할 때도 유보가 있다. 마치 사람들이 강력한 도구를 쓰는 것을 내가 막고 싶어 하는 것처럼 들릴 수 있기 때문이다. 하지만 내 요지는, 이 도구가 당신을 더 강하게 만들기보다 더 약하게 만들 것이라는 점이다. LLM은 사람들을 진정으로 ‘역량 강화’하는 것처럼 보이지 않는다. 내가 현재 목격하는 효과 중 하나는 다양한 공모(인턴십, 연구 제안, 채용 공고)에 대한 지원서 수는 늘어나는데 질은 떨어진다는 것이다. 학생들은 협업 과제를 푸는 데 챗봇의 도움을 구하지만, 모두가 같은 챗봇에게 묻고 있다는 사실을 깨닫지 못한다. 그 결과, 스스로 잠깐만 생각했더라면 생겼을 아이디어의 다양성이 사라진다.
챗봇이 참여의 문턱을 낮췄을지 모르지만, 경쟁의 규칙은 바뀌지 않았다. 글을 잘 쓰려면 써야 한다. 생각도 마찬가지다. 취업 지원은 LLM이 생각하는 당신(혹은 당신이 ‘되어야 한다고’ 생각하는 모습)이 아니라, ‘당신이 누구인지’를 보여 주는 일이다. 공적 토론에 참여한다는 것은 곧 의견을 명확한 언어로 표현하는 방식을 스스로 다듬어야 한다는 뜻이다. 내 단어를 찾지 않는다면, 나는 정말 참여하고 있는 걸까?
중요한 점은 모든 텍스트가 같은 방식으로 영향을 받지는 않는다는 것이다. 내가 “기능적 텍스트(functional text)”라고 부르는 범주—컴퓨터 코드나 순수 정보 전달(예: 레시피, 안내 표지, 문서화)—는 같은 문제에 노출되지 않는다. 하지만 개인적 저자가 인간 독자에게 말 거는 텍스트는 특정한 역할 기대 위에 서 있으며 특정한 신뢰에 의존한다. 그 신뢰가 침식된다면 인류에게 손실이다.
실용적인 태도라면, 텍스트의 인플레이션이 일어나도록 두고 먼지가 가라앉은 뒤 평가해 보자고 할 수도 있다. 그 뒤 언어에는 무엇이 남을까? 내 보수적인 관점은 우리가 잃게 될 것이 우리가 얻는 것보다 더 가치 있다고 믿는 데서 나온다. LLM이 단기적으로 유용할 수는 있지만, 그것을 쓰는 것은 문제를 해결하기보다 증상을 치료하는 것이다. 이는 지팡이(목발)이며, 어떤 이들은 действительно 그 지팡이가 필요할 수도 있다. 내 유일한 조언은, 기대기 전에 정말 필요한지 확인하라는 것이다.
LLM 사용은 글쓰기에만 국한되지 않는다. Masley는 “그 자체로 가치 있는 경험”인 활동을 외주화하는 것은 나쁘다고 말한다. 나는 전적으로 동의하지만, 내가 이 범주가 우리가 이미 삶에서 하는 많은 일을 포함한다고 말하면 그는 동의하지 않을지도 모른다. 주요 LLM 제공사들은 챗봇이 여행을 계획하고, 파티를 조직하고, 친구와 가족에게 보낼 개인 메시지를 만드는 데 쓰일 수 있다고 보여 주는 것을 좋아한다. 나는 이런 광고를 볼 때 기술 사회로부터 가장 단절감을 느낀다.
내게 이는 인간이란 무엇인가라는 문제의 핵심을 건드리는 문제를 드러낸다. 현대의 삶에는 잡일처럼 느껴지는 활동이 많지만, 동시에 우리는 모든 것을 잡일로 취급하려고 필사적인 듯하다. 인간은 거의 모든 것에서 불만을 찾아내는 데 놀라울 정도로 능숙하다. 아마도 현대 사회가 “우리는 언제든 하고 싶은 것은 무엇이든 할 수 있어야 한다”는 기대를 심어 주었기 때문일 것이다—혹은 더 중요하게는, “하기 싫은 것은 피할 수 있어야 한다”는 기대 때문일지도 모른다. 삶 그 자체에서 기회와 충만함을 보지 못하는 우리의 무능은, 결국 삶은 늘 부족하며 우리는 언제나 다른 일을 하고 싶어 한다는 결론으로 이어진다.
이론적으로는 어떤 일들을 자동화해 더 의미 있고 보람 있는 다른 일을 위한 시간을 확보할 수 있다는 주장에 동의한다. 하지만 우리는 이미 휴가 계획조차도 많은 사람들이 피하고 싶어 하는 ‘잡일’이 되어 버린 단계에 도달했다. AI가 “거의 모든 것”을 자동화할 수 있다는 주장된 능력이, 우리가 무엇에 시간과 노력을 들일 가치가 있는지 깨닫게 해 주고 의도적인 삶의 가치를 재발견하게 해 주길 바란다.
세 번째로 다루고 싶은 항목은 Masley가 말하는 바, “앞으로 세상을 살아가는 데 필요할 복잡한 암묵지를 쌓는” 경우에는 챗봇을 쓰지 말아야 한다는 점이다. 나는 снова 완전히 동의하며, 또한 이 항목이 일상의 상당 부분을 포괄한다고 본다. 지식은 새로운 것을 배우기 위해 앉았을 때만 쌓이는 것이 아니라, 반복적인 일을 할 때도 쌓인다.
이 오해는 챗봇에서 새로 생긴 것이 아니라, 스마트폰을 주머니에 넣고 다니기 시작한 때부터 존재했다. 언제나 손에 인터넷이 있으니 더 이상 정보를 기억할 필요가 없다는 생각이다. 뇌를 지식 저장에 쓰는 대신, 필요할 때 온라인에서 정보를 찾아오고 그 정보를 사용하는 법과 비판적으로 생각하는 법에 더 시간을 쓰면 된다는 주장이다. 여기서 놓치는 점은, 지식을 습득하고 암기하는 과정이 지식을 활용하는 법을 배우는 데서 매우 큰 부분을 차지한다는 것이다. 우리가 컴퓨터처럼 저장 장치와 처리 장치를 단순히 분리할 수 있다고 생각하는 것은 순진하다.
나는 피아노 학생 시절 이 교훈을 배웠다. 나는 재즈를 이해하려 했고, 뛰어난 즉흥 연주자들이 어떻게 그 자리에서 그렇게 쉽게 새로운 프레이즈를 떠올리는지 알고 싶었다. 즉흥 연주를 어떻게 연습할까? 바로 새로운 것을 만들어 내면서도 즉시 좋게 들리게 하는 능력을 훈련할 수 있을까? 나는 시도할 때마다 거의 비슷한 리프를 연주하곤 했다. 시간이 지나자, 뛰어난 재즈 연주자는 타고난 창의성—머릿속에서 멜로디가 흥얼거리도록 해 주는 내적 영감—을 가진 채로 태어나는 게 아닐까 확신하게 됐다.
내 지도교수 중 한 분이 진짜 비결을 알려 주었다. 좋은 즉흥은 즉흥만 연습해서 나오는 것이 아니다. 기존의 곡과 튠을 많이, 반복해서 연주해야 한다. 외워야 한다. 코드 진행과 모티프를 몸에 배게 해야 한다. 그 연습이 무엇이 좋은 소리인지에 대한 직관을 쌓아 주고, 즉흥은 그 위에서 솟아난다. 오래된 멜로디의 파편들이 새로운 음악으로 결합된다. 그런 의미에서 우리는 컴퓨터라기보다 머신러닝 모델에 더 가깝지만, 그렇다고 우리가 실제로 _그것_이라고 착각해서는 안 된다.
여기서 명확히 할 점이 있다. 나는 LLM으로 아무것도 자동화하면 안 된다고 말하는 것이 아니다. 하지만 많은 사람들이 지루한 작업에서 우리가 쌓고 있는 지식을 심각하게 과소평가하고 있으며, 효율성 압박이 커질수록 챗봇으로 기울면서 그 지식을 잃을 위험에 처해 있다고 생각한다.
덧붙이자면, Masley가 설명한 확장된 마음 개념에는 이견이 있다.
[M]우리의 인지 중 상당 부분은 두개골과 뇌에만 제한되지 않고, 물리적 환경에서 일어나기도 한다. 그래서 우리가 마음이라고 정의하는 많은 부분은 주변의 물리적 사물들 속에 존재한다고도 말할 수 있다.
그것이 당신의 뇌 신경세포에서 일어나든, 휴대폰의 회로에서 일어나든, 어느 쪽이든 임의적(arbitrary)인 것처럼 보인다.
이 진술은 맥락을 고려해도 단순히 터무니없다. 뇌에서 일어나는지 컴퓨터에서 일어나는지의 차이는 엄청나게 중요하다. 인간은 정보 처리기 그 이상이다. 우리는 정보를 처리하지만, 특정 과정을 외부 장치로 외주화해도 아무런 결과가 없을 것처럼 우리를 바라보는 것은 극도로 환원주의적이다. 챗봇이 친구에게 자동 축하 메시지를 보내도록 할 수 있다면, 내가 친구의 생일을 기억하는 것이 정말 중요한가? 그렇다. 전자의 경우 당신은 의식적으로 친구를 떠올리고 생각함으로써 관계의 당신 쪽을 공고히 하고 있기 때문이다.
위 인용문 다음에는 이런 말이 이어진다.
휴대폰을 잃어버리면 저장된 지식을 잃을 수 있다는 점은 사실이지만, 뇌의 일부가 잘려 나갈 수도 있다.
휴대폰을 잃는 것과 뇌의 일부를 잃는 것은 가능성과 결과의 측면에서 엄청나게 다른 일이다. 위 진술은 우리 뇌에서 일어나는 과정을 크게 과소평가할 뿐 아니라, 뇌 일부를 잘라내는 일을 휴대폰을 잃는 일과 유사하게 비교하는 것 자체가 그 논증의 전제가 현실과 심각하게 동떨어져 있음을 드러낸다.
또한 built environment(우리의 건조 환경)의 설계를 예로 들어, 우리가 해야 할 생각을 최소화하는 것이 유익하다는 점을 보여 주려 한다.
[M]우리의 물리적 환경 대부분은 일상 목표를 달성하기 위해 우리가 해야 하는 생각의 양을 최소화하도록 특별히 설계되어 왔다.
만약 사물들이 다르게 설계되어 있었다면, 얼마나 더 많은 추가 사고가 필요했을지 상상해 보라.
이 주장도 면밀히 보면 성립하지 않는다. 물론 환경이 갑자기 바뀌면, 우리가 길을 찾고 적응하는 데 추가적인 정신적 노력이 필요할 것이다. 한동안은. 하지만 곧 우리는 그 альтернатив 설계에 익숙해지고 적응했을 것이다. 우리가 지속적으로 추가 사고를 해야 하는 경우는 물리적 환경의 설계가 계속 바뀔 때뿐이다.
“인지량 고정의 오류(lump of cognition fallacy)”에 관해서는, “유한한 생각의 풀(pool)”을 고갈시켜 인간에게 “덜 생각”만 남게 될 것—그게 무엇을 의미하든—을 걱정할 필요는 없다는 데 전적으로 동의한다. 그러나 여기에는 또 다른 오류가 작동하고 있다. 그것은 “무엇을 생각하든 상관없다. _무언가_만 생각하면 된다”는 생각이다. 컴퓨터가 단순하고 지루한 일을 내 대신 해 준다면, 나는 더 복잡하고 흥미로운 일을 할 수 있다는 생각은 설득력 있어 보인다. 하지만 어떤 정신적 과업은, 기계가 기술적으로 대신할 수 있더라도 우리가 직접 해야 중요한 것들이 있다.
예를 들어 보자. 내가 지루한 프로젝트 행정 업무를 전부 챗봇에 외주화하면, 핵심 업무인 연구에 더 시간을 쓸 수 있다. 하지만 동시에 나는 프로젝트에 대한 소유감을 느끼고, 프로젝트의 상위 수준 의사결정을 내릴 기반을 쌓을 기회를 잃게 된다. 챗봇이 내 대신 모든 행정 업무를 완벽하게 수행하는 가상의 상황에서도, 나는 여전히 무언가를 잃게 되며, 그것은 다시 프로젝트에 영향을 미칠 수 있다. 나는 어떤 과업도 자동화하면 안 된다고 말하는 것이 아니다. 다만 과정 자동화에는 언제나 우리가 잃는 무언가가 있다는 점을 자각해야 한다.
“노동량 고정의 오류”와 다시 비교해 보자. 육체노동을 기계에 외주화하면 단지 새로운 유형의 일이 생길 뿐이라는 말이 사실일 수 있다. 그러나 그 새로운 일이 개인과 사회에 유용하거나, 충만감을 주거나, 이로운 것이라는 뜻은 아니다. 생각도 마찬가지다. 우리는 지루하고 고된 종류의 생각조차 우리에게 영향을 준다는 사실을 인정해야 한다. 어떤 인지 과업의 필요를 제거하는 일은, 새로운 종류의 인지 과업을 떠맡는 것만큼이나 긍정적 또는 부정적 영향을 미칠 수 있다.
장기적으로 챗봇이 무엇에 적합한지 가려내는 일은 우리 앞에 놓인 큰 과제다. 개인적 소통은 영원히 바뀔지도 모른다(즉, 더 이상 개인적이지 않게 될지도 모른다). 교육 시스템은 급진적인 적응을 요구받을 것이며, 우리는 삶에서 어떤 경험이 वास्तव로 중요한지 더 신중히 성찰해야 한다. 이 새로운 기술이 진정 흥미로운 이유는, 그것이 인간성과 가치에 대한 질문을 정면으로 마주하게 만들기 때문이다. 예전에는 철학의 이론적 질문으로 남아 있던 많은 것들이, 이제 우리의 일상과 관련되어 가고 있다.
내가 강조하고 싶은 근본적인 점은, 챗봇을 어떻게 사용할지의 선택은 효율성과 인지적 결과만의 문제가 아니라 우리가 어떤 삶과 사회를 원하느냐의 문제라는 것이다. 나는 자동화로부터 특정 인간 활동을 보호해야 할 타당한 이유들이 있다고 주장해 왔다. 이는 일부 나의 가치관에 근거하며, 업무 효율이나 인지 능력이 실제로 영향을 받는지에 대한 연구 결과에만 의존하지 않는다. 나는 다른 사람들에게 무엇을 해야 한다고 말할 수는 없지만, 각자가 우리 공동체를 어떤 가치 위에 세우고 싶은지 고민하고, 연구 결과가 말해 주는 것과 함께 그 가치가 판단에 반영되길 도전적으로 제안한다.
추적 없음. 쿠키 없음. 방문 로그 없음.
이 사이트의 어떤 글쓰기에도 생성형 AI는 사용되지 않았습니다.
©2018-2026 Erik Johannes Husom.