香港の大学生399人を対象にした調査で、学生たちの生成AIへの本音が明らかになりました。
多くの学生が生成AIに前向きな姿勢を示す一方で、情報の正確性や倫理面への不安も抱えていることがわかっています。
この結果は、2023年にCecilia Ka Yuk Chan氏とWenjie Hu氏が発表した論文
「Students’ voices on generative AI」
で報告されました。
調査では学部生・大学院生を含む幅広い分野の学生が対象となりました。
生成AIは学びの強力な味方になる可能性を秘めています。
しかし使い方を誤ると、子どもや学生の成長を妨げる道具にもなりかねません。
この記事では、論文の内容をやさしく解説し、日常の学びにどう活かせるかを紹介します。
目次
論文の概要 – どんな研究か・誰が対象か

この研究は、香港の大学生399人を対象に行われました。
学部生と大学院生の両方が含まれ、さまざまな専攻の学生が参加しています。
調査の目的は、ChatGPTなどの生成AIに対する学生の本音を探ることでした。
具体的には、AIへの慣れ・使う意欲・メリット・課題などを聞き取っています。
学生の視点から生成AIの可能性と課題を明らかにするのが狙いです。
研究の背景には、教育心理学者ジョン・ビッグス氏の
「3Pモデル」
という考え方があります。
これは、学生の考え方が学び方や成果に大きく影響するという理論です。
つまり、AIに対する学生の感じ方を知ることが、よりよい教育につながるという発想です。
ポイント
この研究は香港の大学生399人を対象に、生成AIへの期待と不安を学生目線で調べた大規模な調査です。
わかったこと – 難しい内容をやさしく要約

調査の結果、学生たちは全体的に生成AIに前向きな姿勢を持っていました。
特に評価されたのは、個別に合わせた学習サポートができる点です。
文章を書く手伝いやアイデア出し、調べ物の効率化にも役立つと感じていました。
一人ひとりに合わせた学びの支援が最大の魅力だと考えられています。
期待されているメリット
学生が挙げたメリットは主に3つありました。
1つ目は、自分の理解度に合わせた説明を受けられることです。
2つ目は、レポートや論文の下書きを手伝ってくれることです。
3つ目は、調べ物やデータ分析の時間を短縮できることです。
感じている不安や課題
一方で、学生は多くの不安も口にしていました。
最も大きな懸念は、AIが出す情報の正確性です。
個人情報の扱いや倫理的な問題にも不安が集まっています。
AIに頼りすぎると自分の成長が妨げられるという声も目立ちました。
将来の就職やキャリアへの影響を心配する学生も少なくありません。
社会全体の価値観が変わってしまうことへの懸念も示されています。
日常で活かせること – 実践的活用法・3つ以上の具体策

それでは、この研究結果を日常の学びにどう活かせるでしょうか。
家庭や学校ですぐに取り入れられる具体策を紹介します。
1. 答えではなく考え方を聞く
生成AIに質問するときは、答えそのものを聞かない工夫が大切です。
たとえば
「この問題の解き方のヒントを教えて」
と聞いてみましょう。
AIを答え製造機ではなく学びの伴走者として使うことが重要です。
こうすることで、自分で考える力が育ちます。
2. 情報の正しさを必ず確認する
AIの答えをそのまま信じてはいけません。
必ず教科書や信頼できる資料で裏を取る習慣をつけましょう。
この一手間が、情報を見極める力を鍛えてくれます。
家庭や学校では、確認作業を学びの一部として位置づけるとよいでしょう。
3. アイデア出しのパートナーにする
作文や自由研究のテーマ決めに生成AIを使うのもおすすめです。
提案されたアイデアから自分の興味に合うものを選びます。
最終的な選択や判断は必ず自分で行うことが大切です。
4. 使うルールを一緒に決める
現場では、生成AIを使うルールを子どもや学生と一緒に決めましょう。
使ってよい場面と、自分の力で取り組む場面を分けるのです。
使い方のルールづくりが成長を守る鍵になります。
ポイント
生成AIは答えを教わる道具ではなく、考える力を育てる伴走者として使うのが理想です。
まとめ

今回の研究から、生成AIは学びに大きな可能性を持つことがわかりました。
大切なのは使い方を工夫して自分の成長につなげることです。
- 生成AIは個別学習の強い味方になる
- 情報の正確性は必ず自分で確認する
- 考える力を育てる使い方を意識する
ぜひ今日から、教育や学びの場で取り入れてみてください。
【参考論文】
Students’ voices on generative AI: perceptions, benefits, and challenges in higher education
著者: Cecilia Ka Yuk Chan, Wenjie Hu(2023年)
DOI: https://doi.org/10.1186/s41239-023-00411-8