"<マル激・前半>AIが子どもの考える力を奪うことを教育現場は理解できているか/酒井邦嘉氏(東京大学..." の動画はこちら
|
この動画をTwitterで共有! |
外部プレーヤー埋め込みタグ |
"<マル激・前半>AIが子どもの考える力を奪うことを教育現場は理解できているか/酒井邦嘉氏(東京大学..."のニコニコ動画詳細情報
<マル激・前半>AIが子どもの考える力を奪うことを教育現場は理解できているか/酒井邦嘉氏(東京大学...
<マル激・前半>AIが子どもの考える力を奪うことを教育現場は理解できているか/酒井邦嘉氏(東京大学...
AIの利活用が加速度的に広がっている。 2022年に運用が始まったOpenAIのChatGPTをはじめ、GoogleのGemini、中国で開発されたDeepSeekなど、ここ数年で生成AIがあっという間に普及し人々の生活の中に入り込んでいる。 政府の人工知能戦略本部は19日、「『信頼できるAI』による『日本再起』」という副題のついた人工知能基本計画案を決定した。世界で最もAIを開発・活用しやすい国を目指すとして、本部長を務める高市首相は「今こそ官民連携で反転攻勢をかけるとき」と強調した。 しかし、このままAIの活用を無制限に進めてしまって本当にいいのだろうか。もう少しその影響を、とりわけ子どもや教育への影響をしっかりと検証する必要があるのではないか。 『デジタル脳クライシス』の著者で言語脳科学者の酒井邦嘉氏は、生成AIがあたかも信頼できる装置であるかのような幻想が、とりわけ教育現場で独り歩きし始めていることに懸念を露わにし、これまでAIの「利用」という言葉を使っていた文科省が「利活用」という言い方に変わり積極的に利用を進める立場になっていることを問題視する。リスク管理が不十分なまま教育への導入が進んだ結果、取り返しがつかない事態を招く恐れがあるからだ。 アメリカでChatGPTが原因で自殺したとして遺族がOpenAIを提訴したことが報道されるなど、今、特に若い世代に急激にAI活用が広がることへの懸念が指摘されている。対話型AIと言われているChatGPTなどの生成AIは、対話を装っているだけで、実際には何かを考えてくれているわけではない。にもかかわらずそれが自己肯定感を増幅するための手軽な装置となって人間の心に入り込んでしまい、気づいたときには取り除くことができない依存症のような状態に陥る事例が多発しているという。 脳科学の研究者として長年、...
動画ID:so45746893
再生時間:80:22
再生回数:再生回数: 回
コメント数:0
マイリスト数:0
最新のコメント:
タグ:マル激,ビデオニュース・ドットコム,酒井邦嘉



