[월드 이슈] EU 의회 ‘AI 규제법’ 통과 등 각국 속속 AI 시대 점검…우리는?
입력 2024.03.25 (20:42)
수정 2024.03.25 (20:53)
읽어주기 기능은 크롬기반의
브라우저에서만 사용하실 수 있습니다.
[앵커]
인공지능, AI에 대한 수요가 급증하면서 인공지능의 시대가 만들어낼 위험 요소에 대한 우려도 커지고 있는데요.
최근 유럽연합 의회에서는 AI 규제에 관한 법안이 통과돼 관심을 끌기도 했습니다.
인공지능의 시대는 과연 어떤 변화를 가져올 것이고, 인간과 공존하면서도 풍요롭게 하려면 어떤 장치들이 필요할지 고려대 컴퓨터공학과 인호 교수와 함께 월드 이슈에서 알아봅니다.
일단 유럽연합 의회에서 통과시킨 AI 법안, 일명 AI 규제법으로도 불리고 있는데요.
핵심적인 내용 어떻게 정리해 볼 수 있을까요?
[답변]
유럽연합의 최근 AI 규제 법안은 AI 기술의 위험도에 따라서 1) 무해함, 2) 제한적 위험, 3) 높은 위험, 4) 용납할 수 없는 위험 등으로 나누고 특히 고위험 이상 AI 시스템 규제에 중점을 두고 있습니다.
즉, 공공 장소에서는 얼굴인식 시스템을 작동하거나 사회적 신용을 점수화하여 금융이나 공공 서비스 접근을 제한하거나 교육 및 고용에 중대한 영향을 미칠 때 규제를 해야 한다고 하는 것입니다.
이로써 이 법안은 AI 시스템의 투명성, 안전성, 그리고 사용자의 권리 보호를 강조하고 있습니다.
목적은 AI가 인간의 기본적 인권을 지키고 사회적, 윤리적 기준에 부합하도록 하여 AI의 긍정적인 측면은 증진시키고 부정적인 영향을 최소화하는 데 있습니다.
[앵커]
미국에서 AI가 인류를 멸종시킬수도 있는 만큼 빨리 정부에서 개입해야 한다는 보고서가 나오기도 했는데요.
정부가 개입할 수 있는 부분이 있다면 어떤 것이 있을까요?
[답변]
이제는 AI가 AI를 만드는 세상이 오고 있습니다.
그러면 AI의 발전 속도는 기하급수적으로 발전하고 인간의 지능을 뛰어 넘는 특이점이 5년 내로 올 것으로 예측하고 있습니다.
만약 AI가 스스로 생각하며 인간의 통제를 벗어난다면 큰 재앙으로 다가올 수 있습니다.
예를 들면, 우리가 AI에게 지구 환경 보호를 명령한다면, AI가 폐기물 감소를 위해 인구 수 축소를 고려할 수 있습니다.
이는 AI가 극단적 해결책으로 핵무기 사용이나 전쟁 유발을 고려할 수 있습니다.
따라서 AI의 의사결정에 인간의 윤리적 기준을 반영할 필요가 있습니다.
이에, 정부는 다음과 같은 부분에 개입해야 합니다.
첫째, AI의 윤리적 활용을 보장하기 위한 규제 및 법률을 제정해야 합니다.
특히 고위험 AI 애플리케이션에 대해 엄격히 심사할 수 있도록 해야 하고 AI가 결정을 내리는 과정을 투명하게 만들어야 합니다.
또 책임소재도 명확히 해야 합니다.
둘째, AI의 안전한 발전을 지원하기 위해 관련 연구와 개발을 장려하고, 윤리적 기준을 수립하고 준수하도록 해야 합니다.
셋째, AI 기술과 그 영향에 대한 공공의 인식을 높이고, 교육 프로그램을 통해 이해도를 증진시켜야 합니다.
[앵커]
테슬라의 일론 머스크도 인공지능의 위험에 맞서 인간 뇌에 고성능 칩을 심어 대응해야 한다고 하고 있는데, 이렇게까지 말하는 이유는 무엇일까요?
[답변]
일론 머스크와 뉴럴링크의 연구는 AI 기술이 인간의 능력을 초월할 때 발생할 수 있는 위협에 대한 우려에서 출발합니다.
머스크는 AI가 인간의 지적 능력을 뛰어넘는 특이점을 지나면 인간이 소외될 수 있다고 보고, 인간과 AI 사이의 경쟁력 차이를 줄이기 위해 인간의 뇌를 AI와 직접 연결하는 기술을 탐구하고 있습니다.
이는 인간이 AI 시대에도 여전히 AI와 대등한 위치에서 우리 인간 능력을 확대해서 AI의 위협에 대응하려는 시도로 볼 수 있습니다.
[앵커]
앞으로 AI가 인간이 할 수 있는 많은 일을 대체할 텐데, 대학을 포함해 교육시스템이 바뀌어야 하진 않을까요?
[답변]
AI가 인간의 업무를 대체하는 시대에 접어들면 새로운 교육 시스템, 특히 대학 교육이 필수적입니다.
저의 수업에서는 수업뿐 아니라 시험 중에 ChatGPT 사용을 허락하고 있습니다.
이제 Problem-Solving 즉, 문제 푸는 교육보다는 Problem-Finding, 즉 문제를 찾고 정의하는 교육이 더 중요하다고 판단했습니다.
AI 시대에 발맞춰 다음과 같이 교육 시스템을 변화시켜야 한다고 생각합니다.
첫째로는, 문제 해결 및 비판적 사고 강화해야 합니다.
교육은 단순 지식 전달에서 벗어나, 학생들이 복잡한 문제를 해결하고 비판적으로 사고할 수 있는 능력을 키울 수 있도록 해야 합니다.
다시 말해 AI가 쉽게 대체할 수 없는 인간만의 독특한 능력을 강화하는 것이 중요합니다.
두 번째 필요한 것은 창의성과 혁신을 촉진하는 것입니다.
관련된 교육 시스템은 학생들이 자신의 창의성을 발휘하고, 새로운 해결책을 제시할 수 있는 환경을 제공해야 합니다.
이를 반영한 입시 제도의 변화도 필요합니다.
학생들에게 AI 사용을 금지시키지 말고 올바르게 사용하는 법을 교육해야 합니다.
세 번째, 평생 학습의 중요성입니다.
학생 때만 배우는 것이 아니라 평생 학습하면서 자신의 능력을 업그레이드해야 합니다.
지식의 생존주기가 짧아졌기 때문입니다.
마지막으로, 윤리적, 사회적 책임을 교육해야 합니다.
AI기술이 핵무기보다 더 파괴적이고 무서운 기술이 될 수 있기 때문에 윤리적이고 책임감 있게 개발되고 사용할 수 있도록 윤리 및 사회적 책임을 교육하는 것이 꼭 필요합니다.
미국이나 유럽에서도 이 문제를 고민하고 대책을 마련 중입니다.
영상편집:김주은 이은빈/자료조사:백민정
인공지능, AI에 대한 수요가 급증하면서 인공지능의 시대가 만들어낼 위험 요소에 대한 우려도 커지고 있는데요.
최근 유럽연합 의회에서는 AI 규제에 관한 법안이 통과돼 관심을 끌기도 했습니다.
인공지능의 시대는 과연 어떤 변화를 가져올 것이고, 인간과 공존하면서도 풍요롭게 하려면 어떤 장치들이 필요할지 고려대 컴퓨터공학과 인호 교수와 함께 월드 이슈에서 알아봅니다.
일단 유럽연합 의회에서 통과시킨 AI 법안, 일명 AI 규제법으로도 불리고 있는데요.
핵심적인 내용 어떻게 정리해 볼 수 있을까요?
[답변]
유럽연합의 최근 AI 규제 법안은 AI 기술의 위험도에 따라서 1) 무해함, 2) 제한적 위험, 3) 높은 위험, 4) 용납할 수 없는 위험 등으로 나누고 특히 고위험 이상 AI 시스템 규제에 중점을 두고 있습니다.
즉, 공공 장소에서는 얼굴인식 시스템을 작동하거나 사회적 신용을 점수화하여 금융이나 공공 서비스 접근을 제한하거나 교육 및 고용에 중대한 영향을 미칠 때 규제를 해야 한다고 하는 것입니다.
이로써 이 법안은 AI 시스템의 투명성, 안전성, 그리고 사용자의 권리 보호를 강조하고 있습니다.
목적은 AI가 인간의 기본적 인권을 지키고 사회적, 윤리적 기준에 부합하도록 하여 AI의 긍정적인 측면은 증진시키고 부정적인 영향을 최소화하는 데 있습니다.
[앵커]
미국에서 AI가 인류를 멸종시킬수도 있는 만큼 빨리 정부에서 개입해야 한다는 보고서가 나오기도 했는데요.
정부가 개입할 수 있는 부분이 있다면 어떤 것이 있을까요?
[답변]
이제는 AI가 AI를 만드는 세상이 오고 있습니다.
그러면 AI의 발전 속도는 기하급수적으로 발전하고 인간의 지능을 뛰어 넘는 특이점이 5년 내로 올 것으로 예측하고 있습니다.
만약 AI가 스스로 생각하며 인간의 통제를 벗어난다면 큰 재앙으로 다가올 수 있습니다.
예를 들면, 우리가 AI에게 지구 환경 보호를 명령한다면, AI가 폐기물 감소를 위해 인구 수 축소를 고려할 수 있습니다.
이는 AI가 극단적 해결책으로 핵무기 사용이나 전쟁 유발을 고려할 수 있습니다.
따라서 AI의 의사결정에 인간의 윤리적 기준을 반영할 필요가 있습니다.
이에, 정부는 다음과 같은 부분에 개입해야 합니다.
첫째, AI의 윤리적 활용을 보장하기 위한 규제 및 법률을 제정해야 합니다.
특히 고위험 AI 애플리케이션에 대해 엄격히 심사할 수 있도록 해야 하고 AI가 결정을 내리는 과정을 투명하게 만들어야 합니다.
또 책임소재도 명확히 해야 합니다.
둘째, AI의 안전한 발전을 지원하기 위해 관련 연구와 개발을 장려하고, 윤리적 기준을 수립하고 준수하도록 해야 합니다.
셋째, AI 기술과 그 영향에 대한 공공의 인식을 높이고, 교육 프로그램을 통해 이해도를 증진시켜야 합니다.
[앵커]
테슬라의 일론 머스크도 인공지능의 위험에 맞서 인간 뇌에 고성능 칩을 심어 대응해야 한다고 하고 있는데, 이렇게까지 말하는 이유는 무엇일까요?
[답변]
일론 머스크와 뉴럴링크의 연구는 AI 기술이 인간의 능력을 초월할 때 발생할 수 있는 위협에 대한 우려에서 출발합니다.
머스크는 AI가 인간의 지적 능력을 뛰어넘는 특이점을 지나면 인간이 소외될 수 있다고 보고, 인간과 AI 사이의 경쟁력 차이를 줄이기 위해 인간의 뇌를 AI와 직접 연결하는 기술을 탐구하고 있습니다.
이는 인간이 AI 시대에도 여전히 AI와 대등한 위치에서 우리 인간 능력을 확대해서 AI의 위협에 대응하려는 시도로 볼 수 있습니다.
[앵커]
앞으로 AI가 인간이 할 수 있는 많은 일을 대체할 텐데, 대학을 포함해 교육시스템이 바뀌어야 하진 않을까요?
[답변]
AI가 인간의 업무를 대체하는 시대에 접어들면 새로운 교육 시스템, 특히 대학 교육이 필수적입니다.
저의 수업에서는 수업뿐 아니라 시험 중에 ChatGPT 사용을 허락하고 있습니다.
이제 Problem-Solving 즉, 문제 푸는 교육보다는 Problem-Finding, 즉 문제를 찾고 정의하는 교육이 더 중요하다고 판단했습니다.
AI 시대에 발맞춰 다음과 같이 교육 시스템을 변화시켜야 한다고 생각합니다.
첫째로는, 문제 해결 및 비판적 사고 강화해야 합니다.
교육은 단순 지식 전달에서 벗어나, 학생들이 복잡한 문제를 해결하고 비판적으로 사고할 수 있는 능력을 키울 수 있도록 해야 합니다.
다시 말해 AI가 쉽게 대체할 수 없는 인간만의 독특한 능력을 강화하는 것이 중요합니다.
두 번째 필요한 것은 창의성과 혁신을 촉진하는 것입니다.
관련된 교육 시스템은 학생들이 자신의 창의성을 발휘하고, 새로운 해결책을 제시할 수 있는 환경을 제공해야 합니다.
이를 반영한 입시 제도의 변화도 필요합니다.
학생들에게 AI 사용을 금지시키지 말고 올바르게 사용하는 법을 교육해야 합니다.
세 번째, 평생 학습의 중요성입니다.
학생 때만 배우는 것이 아니라 평생 학습하면서 자신의 능력을 업그레이드해야 합니다.
지식의 생존주기가 짧아졌기 때문입니다.
마지막으로, 윤리적, 사회적 책임을 교육해야 합니다.
AI기술이 핵무기보다 더 파괴적이고 무서운 기술이 될 수 있기 때문에 윤리적이고 책임감 있게 개발되고 사용할 수 있도록 윤리 및 사회적 책임을 교육하는 것이 꼭 필요합니다.
미국이나 유럽에서도 이 문제를 고민하고 대책을 마련 중입니다.
영상편집:김주은 이은빈/자료조사:백민정
■ 제보하기
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 유튜브, 네이버, 카카오에서도 KBS뉴스를 구독해주세요!
- [월드 이슈] EU 의회 ‘AI 규제법’ 통과 등 각국 속속 AI 시대 점검…우리는?
-
- 입력 2024-03-25 20:42:37
- 수정2024-03-25 20:53:12
[앵커]
인공지능, AI에 대한 수요가 급증하면서 인공지능의 시대가 만들어낼 위험 요소에 대한 우려도 커지고 있는데요.
최근 유럽연합 의회에서는 AI 규제에 관한 법안이 통과돼 관심을 끌기도 했습니다.
인공지능의 시대는 과연 어떤 변화를 가져올 것이고, 인간과 공존하면서도 풍요롭게 하려면 어떤 장치들이 필요할지 고려대 컴퓨터공학과 인호 교수와 함께 월드 이슈에서 알아봅니다.
일단 유럽연합 의회에서 통과시킨 AI 법안, 일명 AI 규제법으로도 불리고 있는데요.
핵심적인 내용 어떻게 정리해 볼 수 있을까요?
[답변]
유럽연합의 최근 AI 규제 법안은 AI 기술의 위험도에 따라서 1) 무해함, 2) 제한적 위험, 3) 높은 위험, 4) 용납할 수 없는 위험 등으로 나누고 특히 고위험 이상 AI 시스템 규제에 중점을 두고 있습니다.
즉, 공공 장소에서는 얼굴인식 시스템을 작동하거나 사회적 신용을 점수화하여 금융이나 공공 서비스 접근을 제한하거나 교육 및 고용에 중대한 영향을 미칠 때 규제를 해야 한다고 하는 것입니다.
이로써 이 법안은 AI 시스템의 투명성, 안전성, 그리고 사용자의 권리 보호를 강조하고 있습니다.
목적은 AI가 인간의 기본적 인권을 지키고 사회적, 윤리적 기준에 부합하도록 하여 AI의 긍정적인 측면은 증진시키고 부정적인 영향을 최소화하는 데 있습니다.
[앵커]
미국에서 AI가 인류를 멸종시킬수도 있는 만큼 빨리 정부에서 개입해야 한다는 보고서가 나오기도 했는데요.
정부가 개입할 수 있는 부분이 있다면 어떤 것이 있을까요?
[답변]
이제는 AI가 AI를 만드는 세상이 오고 있습니다.
그러면 AI의 발전 속도는 기하급수적으로 발전하고 인간의 지능을 뛰어 넘는 특이점이 5년 내로 올 것으로 예측하고 있습니다.
만약 AI가 스스로 생각하며 인간의 통제를 벗어난다면 큰 재앙으로 다가올 수 있습니다.
예를 들면, 우리가 AI에게 지구 환경 보호를 명령한다면, AI가 폐기물 감소를 위해 인구 수 축소를 고려할 수 있습니다.
이는 AI가 극단적 해결책으로 핵무기 사용이나 전쟁 유발을 고려할 수 있습니다.
따라서 AI의 의사결정에 인간의 윤리적 기준을 반영할 필요가 있습니다.
이에, 정부는 다음과 같은 부분에 개입해야 합니다.
첫째, AI의 윤리적 활용을 보장하기 위한 규제 및 법률을 제정해야 합니다.
특히 고위험 AI 애플리케이션에 대해 엄격히 심사할 수 있도록 해야 하고 AI가 결정을 내리는 과정을 투명하게 만들어야 합니다.
또 책임소재도 명확히 해야 합니다.
둘째, AI의 안전한 발전을 지원하기 위해 관련 연구와 개발을 장려하고, 윤리적 기준을 수립하고 준수하도록 해야 합니다.
셋째, AI 기술과 그 영향에 대한 공공의 인식을 높이고, 교육 프로그램을 통해 이해도를 증진시켜야 합니다.
[앵커]
테슬라의 일론 머스크도 인공지능의 위험에 맞서 인간 뇌에 고성능 칩을 심어 대응해야 한다고 하고 있는데, 이렇게까지 말하는 이유는 무엇일까요?
[답변]
일론 머스크와 뉴럴링크의 연구는 AI 기술이 인간의 능력을 초월할 때 발생할 수 있는 위협에 대한 우려에서 출발합니다.
머스크는 AI가 인간의 지적 능력을 뛰어넘는 특이점을 지나면 인간이 소외될 수 있다고 보고, 인간과 AI 사이의 경쟁력 차이를 줄이기 위해 인간의 뇌를 AI와 직접 연결하는 기술을 탐구하고 있습니다.
이는 인간이 AI 시대에도 여전히 AI와 대등한 위치에서 우리 인간 능력을 확대해서 AI의 위협에 대응하려는 시도로 볼 수 있습니다.
[앵커]
앞으로 AI가 인간이 할 수 있는 많은 일을 대체할 텐데, 대학을 포함해 교육시스템이 바뀌어야 하진 않을까요?
[답변]
AI가 인간의 업무를 대체하는 시대에 접어들면 새로운 교육 시스템, 특히 대학 교육이 필수적입니다.
저의 수업에서는 수업뿐 아니라 시험 중에 ChatGPT 사용을 허락하고 있습니다.
이제 Problem-Solving 즉, 문제 푸는 교육보다는 Problem-Finding, 즉 문제를 찾고 정의하는 교육이 더 중요하다고 판단했습니다.
AI 시대에 발맞춰 다음과 같이 교육 시스템을 변화시켜야 한다고 생각합니다.
첫째로는, 문제 해결 및 비판적 사고 강화해야 합니다.
교육은 단순 지식 전달에서 벗어나, 학생들이 복잡한 문제를 해결하고 비판적으로 사고할 수 있는 능력을 키울 수 있도록 해야 합니다.
다시 말해 AI가 쉽게 대체할 수 없는 인간만의 독특한 능력을 강화하는 것이 중요합니다.
두 번째 필요한 것은 창의성과 혁신을 촉진하는 것입니다.
관련된 교육 시스템은 학생들이 자신의 창의성을 발휘하고, 새로운 해결책을 제시할 수 있는 환경을 제공해야 합니다.
이를 반영한 입시 제도의 변화도 필요합니다.
학생들에게 AI 사용을 금지시키지 말고 올바르게 사용하는 법을 교육해야 합니다.
세 번째, 평생 학습의 중요성입니다.
학생 때만 배우는 것이 아니라 평생 학습하면서 자신의 능력을 업그레이드해야 합니다.
지식의 생존주기가 짧아졌기 때문입니다.
마지막으로, 윤리적, 사회적 책임을 교육해야 합니다.
AI기술이 핵무기보다 더 파괴적이고 무서운 기술이 될 수 있기 때문에 윤리적이고 책임감 있게 개발되고 사용할 수 있도록 윤리 및 사회적 책임을 교육하는 것이 꼭 필요합니다.
미국이나 유럽에서도 이 문제를 고민하고 대책을 마련 중입니다.
영상편집:김주은 이은빈/자료조사:백민정
인공지능, AI에 대한 수요가 급증하면서 인공지능의 시대가 만들어낼 위험 요소에 대한 우려도 커지고 있는데요.
최근 유럽연합 의회에서는 AI 규제에 관한 법안이 통과돼 관심을 끌기도 했습니다.
인공지능의 시대는 과연 어떤 변화를 가져올 것이고, 인간과 공존하면서도 풍요롭게 하려면 어떤 장치들이 필요할지 고려대 컴퓨터공학과 인호 교수와 함께 월드 이슈에서 알아봅니다.
일단 유럽연합 의회에서 통과시킨 AI 법안, 일명 AI 규제법으로도 불리고 있는데요.
핵심적인 내용 어떻게 정리해 볼 수 있을까요?
[답변]
유럽연합의 최근 AI 규제 법안은 AI 기술의 위험도에 따라서 1) 무해함, 2) 제한적 위험, 3) 높은 위험, 4) 용납할 수 없는 위험 등으로 나누고 특히 고위험 이상 AI 시스템 규제에 중점을 두고 있습니다.
즉, 공공 장소에서는 얼굴인식 시스템을 작동하거나 사회적 신용을 점수화하여 금융이나 공공 서비스 접근을 제한하거나 교육 및 고용에 중대한 영향을 미칠 때 규제를 해야 한다고 하는 것입니다.
이로써 이 법안은 AI 시스템의 투명성, 안전성, 그리고 사용자의 권리 보호를 강조하고 있습니다.
목적은 AI가 인간의 기본적 인권을 지키고 사회적, 윤리적 기준에 부합하도록 하여 AI의 긍정적인 측면은 증진시키고 부정적인 영향을 최소화하는 데 있습니다.
[앵커]
미국에서 AI가 인류를 멸종시킬수도 있는 만큼 빨리 정부에서 개입해야 한다는 보고서가 나오기도 했는데요.
정부가 개입할 수 있는 부분이 있다면 어떤 것이 있을까요?
[답변]
이제는 AI가 AI를 만드는 세상이 오고 있습니다.
그러면 AI의 발전 속도는 기하급수적으로 발전하고 인간의 지능을 뛰어 넘는 특이점이 5년 내로 올 것으로 예측하고 있습니다.
만약 AI가 스스로 생각하며 인간의 통제를 벗어난다면 큰 재앙으로 다가올 수 있습니다.
예를 들면, 우리가 AI에게 지구 환경 보호를 명령한다면, AI가 폐기물 감소를 위해 인구 수 축소를 고려할 수 있습니다.
이는 AI가 극단적 해결책으로 핵무기 사용이나 전쟁 유발을 고려할 수 있습니다.
따라서 AI의 의사결정에 인간의 윤리적 기준을 반영할 필요가 있습니다.
이에, 정부는 다음과 같은 부분에 개입해야 합니다.
첫째, AI의 윤리적 활용을 보장하기 위한 규제 및 법률을 제정해야 합니다.
특히 고위험 AI 애플리케이션에 대해 엄격히 심사할 수 있도록 해야 하고 AI가 결정을 내리는 과정을 투명하게 만들어야 합니다.
또 책임소재도 명확히 해야 합니다.
둘째, AI의 안전한 발전을 지원하기 위해 관련 연구와 개발을 장려하고, 윤리적 기준을 수립하고 준수하도록 해야 합니다.
셋째, AI 기술과 그 영향에 대한 공공의 인식을 높이고, 교육 프로그램을 통해 이해도를 증진시켜야 합니다.
[앵커]
테슬라의 일론 머스크도 인공지능의 위험에 맞서 인간 뇌에 고성능 칩을 심어 대응해야 한다고 하고 있는데, 이렇게까지 말하는 이유는 무엇일까요?
[답변]
일론 머스크와 뉴럴링크의 연구는 AI 기술이 인간의 능력을 초월할 때 발생할 수 있는 위협에 대한 우려에서 출발합니다.
머스크는 AI가 인간의 지적 능력을 뛰어넘는 특이점을 지나면 인간이 소외될 수 있다고 보고, 인간과 AI 사이의 경쟁력 차이를 줄이기 위해 인간의 뇌를 AI와 직접 연결하는 기술을 탐구하고 있습니다.
이는 인간이 AI 시대에도 여전히 AI와 대등한 위치에서 우리 인간 능력을 확대해서 AI의 위협에 대응하려는 시도로 볼 수 있습니다.
[앵커]
앞으로 AI가 인간이 할 수 있는 많은 일을 대체할 텐데, 대학을 포함해 교육시스템이 바뀌어야 하진 않을까요?
[답변]
AI가 인간의 업무를 대체하는 시대에 접어들면 새로운 교육 시스템, 특히 대학 교육이 필수적입니다.
저의 수업에서는 수업뿐 아니라 시험 중에 ChatGPT 사용을 허락하고 있습니다.
이제 Problem-Solving 즉, 문제 푸는 교육보다는 Problem-Finding, 즉 문제를 찾고 정의하는 교육이 더 중요하다고 판단했습니다.
AI 시대에 발맞춰 다음과 같이 교육 시스템을 변화시켜야 한다고 생각합니다.
첫째로는, 문제 해결 및 비판적 사고 강화해야 합니다.
교육은 단순 지식 전달에서 벗어나, 학생들이 복잡한 문제를 해결하고 비판적으로 사고할 수 있는 능력을 키울 수 있도록 해야 합니다.
다시 말해 AI가 쉽게 대체할 수 없는 인간만의 독특한 능력을 강화하는 것이 중요합니다.
두 번째 필요한 것은 창의성과 혁신을 촉진하는 것입니다.
관련된 교육 시스템은 학생들이 자신의 창의성을 발휘하고, 새로운 해결책을 제시할 수 있는 환경을 제공해야 합니다.
이를 반영한 입시 제도의 변화도 필요합니다.
학생들에게 AI 사용을 금지시키지 말고 올바르게 사용하는 법을 교육해야 합니다.
세 번째, 평생 학습의 중요성입니다.
학생 때만 배우는 것이 아니라 평생 학습하면서 자신의 능력을 업그레이드해야 합니다.
지식의 생존주기가 짧아졌기 때문입니다.
마지막으로, 윤리적, 사회적 책임을 교육해야 합니다.
AI기술이 핵무기보다 더 파괴적이고 무서운 기술이 될 수 있기 때문에 윤리적이고 책임감 있게 개발되고 사용할 수 있도록 윤리 및 사회적 책임을 교육하는 것이 꼭 필요합니다.
미국이나 유럽에서도 이 문제를 고민하고 대책을 마련 중입니다.
영상편집:김주은 이은빈/자료조사:백민정
이 기사가 좋으셨다면
-
좋아요
0
-
응원해요
0
-
후속 원해요
0
이 기사에 대한 의견을 남겨주세요.