中学生の息子にAIルールを決めた方法|最初の失敗と「対話型」に変えて気づいたこと

  • URLをコピーしました!

※ 本記事にはプロモーションが含まれています

AIルール記事 冒頭漫画
目次

うちの中学生の息子、もうAIを使っていた

うちの中学生の息子、もうAIを使っていたのイメージ

「ねえ、これChatGPTに聞いたんだけどさ」

中1の息子が夕食中にそう言ったとき、私は箸を止めました。

モバイル社会研究所の2025年11月調査によると、中学生のAI利用率は40.4%。前年比で約3倍に急増しています。つまりクラスの5人に2人はもうAIを使っている計算です。

一方で、ニフティキッズの調査では約9割の小中学生がAI利用のルールを決めていないという結果が出ています。

子どもはもう使っている。でもルールがない。この状態がいちばん怖いんです。

え、クラスの5人に2人がAI使ってるの? うちの子も使ってるのかな…

親が知らないうちに使っているケースがほとんど。
だからこそ「ルールの作り方」が大事なんです

この記事では、私が実際に息子に対して「禁止型ルール」を作って大失敗し、そこから「対話型ルール」に切り替えて気づいたことをお伝えします。完璧な正解ではありません。でも、同じように悩んでいるママの参考になればと思います。

最初にやった「禁止型ルール」が大失敗だった話

最初にやった「禁止型ルール」が大失敗だった話のイメージ

息子がAIを使っていると知った翌日、私はすぐにルールを作りました。

AI講師だからこそ、リスクも知っている。だから「ちゃんとしなきゃ」と思ったんです。

親が一方的に決めた3つのルール

  • 宿題にAIを使うのは禁止
  • 使うときは必ず親の前で
  • AIとの会話履歴を毎日見せること

今見返すと、完全に「監視型」ですよね。でも当時の私は、Character.AIで14歳の男の子がチャットボットとの対話後に自ら命を絶ち、訴訟に発展した事件(2026年1月に和解)を知っていたので、怖さが先に立っていました。

息子のリアルな反応

結果は散々でした。

1. 別のサービスに逃げた

「ChatGPT禁止」と言ったら、友達に教えてもらった別のAIサービスを使い始めました。私が知らないサービスだったので、安全性の確認すらできない状態に。禁止したことで、むしろリスクが上がったんです。

2. 相談してこなくなった

「変なことを聞いちゃった」「よくわからない回答が返ってきた」——そういう相談が一切なくなりました。ルールを破っているから言えない。これがいちばんまずかった。

3. きょうだいの不公平感

小5の娘が「お兄ちゃんだけスマホでAI使えてずるい」と言い出しました。年齢が違うから制限も違う、と説明しても「ルールがお兄ちゃんだけ特別」という不満は消えませんでした。

なぜ失敗したのか

後から調べてわかったことがあります。

JMIR(Journal of Medical Internet Research)の2025年の研究では、制限型のデジタルルールは15.7歳前後で逆効果になるという結果が出ています。つまり中学生に「禁止」は通用しにくい年齢なんです。

心理学でいう「自己決定理論」では、人がルールを本当に自分のものにするには自律性(自分で決めた感覚)・有能感(自分にもできる)・関係性(信頼されている)の3つが必要とされています。親が一方的に決めた禁止ルールは、この3つを全部つぶしていました。

さらに、心理学の「カリギュラ効果」——禁止されるとかえってやりたくなる現象——も働いていたと思います。

「対話型ルール」に切り替えてやったこと

「対話型ルール」に切り替えてやったことのイメージ

転機は、息子のこの一言でした。

「ママだって仕事でAI使ってるじゃん。なんで俺だけダメなの?」

正論でした。私はAIを仕事に使っている。それなのに子どもには禁止する。大人と子どもは違う、と言いたい気持ちはありましたが、息子の目から見たら矛盾でしかない。

この一言をきっかけに、「ルールを作り直そう。今度は一緒に」と決めました。

家族会議で決めた「わが家のAI 3つの約束」

休日の夜、子ども3人(中1・小5・年長)と夫の5人で話し合いました。年長の末っ子はまだAIを使いませんが、「家族のルール」なので全員参加にしました。

会議で決めたのはこの3つです。

約束1: AIの答えは「たたき台」。最後は自分の頭で考える

宿題でAIを使うこと自体は禁止しない。ただし、AIの回答をそのまま出すのはナシ。「AIに聞いた→自分で考えた→こう変えた」のプロセスが見えればOK、というルールです。

これはトヨタの「アンドン」の考え方に近いかもしれません。問題が起きたら隠さずに声を上げる。AI利用も同じで、「使った」と言える環境を作ることが先だと考えました。

約束2: 「変だな」と思ったら、すぐ大人に見せる

AIが変な回答をしたとき、怖い内容が出たとき、個人情報を聞かれたとき。「やばいかも」と思ったら、怒られない前提で親に見せる。これが2つ目の約束です。

保護者の12.5%が子どものAI利用で「怖い」経験をしたというAwarefy調査のデータがあります。怖い経験は起こりうる。だからこそ、起きたときに「言える関係」を先に作っておく必要があります。

約束3: 月1回、家族でAIの使い方を振り返る

ルールは作って終わりではなく、毎月アップデートする。子どもの成長やAIの進化に合わせて、約束も変わっていい。「このルール、もう要らなくない?」と子どもから言えるようにしました。

これは料理教室の関わり方に似ています。最初は一緒に作る。慣れたら見守る。いずれ手放す。段階的に子どもの自律性を育てるイメージです。

年齢別に気をつけたポイント

うちは3人きょうだいで年齢がバラバラなので、同じ約束でも具体的な運用は変えています。

年齢AI利用の範囲親の関わり方
中学生(中1)調べ学習・英語の質問・プログラミングの相談など自由度高め週1で「最近AIで何した?」と聞く。履歴チェックは月1の振り返り時のみ
小学校高学年(小5)親と一緒に使う。Geminiを家族アカウント(Family Link)で管理隣で一緒に試す。「どう思う?」と考えるきっかけを作る
年長まだ使わない。ただし家族会議には参加「AIってお話できるロボットみたいなものだよ」と存在だけ伝える

年齢で分けるんじゃなくて、「同じ約束・違う運用」ってことか。
これなら不公平感も減りそう

そう!ルールは一緒。
でも「今のあなたにはここまで」と段階を見せることで、上の子を見て「いつか自分も」と思えるんです

【参考】主なAIサービスの年齢制限

家族でルールを決める前に、まずサービスごとの年齢制限を把握しておくことをおすすめします。

サービス名年齢制限備考
ChatGPT13歳以上18歳未満は保護者の同意が必要
Claude18歳以上のみ例外なし。子どもの利用は不可
Gemini13歳以上Family Link経由で保護者が管理可能
Copilot13歳以上地域によって異なる場合あり

文部科学省も2024年12月に「生成AIの利用に関するガイドラインVer.2.0」を公開しています。学校での利用指針ですが、家庭でルールを作るときの参考にもなります。また、UNICEF Guidance on AI and Children 3.0(2025年12月)も、子どものAI利用における権利と保護のバランスについて国際的な指針を示しています。

変わったこと・まだ課題なこと

3ヶ月経って変わったこと・まだ課題なことのイメージ

変わったこと

息子が自分から「今日AIにこれ聞いた」と話してくれるようになりました。

いちばん大きな変化はこれです。禁止していた頃は、AI利用を隠していた息子が、今は夕食の話題にするようになりました。「英語の例文をAIに作ってもらったけど、ちょっと変だった」「プログラミングのエラーを聞いたら解決した」と、使い方の報告が自然に出てきます。

小5の娘も、「お兄ちゃんと一緒にGeminiで調べ学習したい」と言い出しました。「ずるい」が「やりたい」に変わったのは、ルールに自分も参加しているからだと思います。

月1の振り返りでは、息子が「宿題にAIを使ったけど、答えをそのまま出したくなった」と正直に話してくれた回もありました。これは禁止型のときには絶対に出てこなかった言葉です。

まだ課題なこと

正直に書きます。

  • 月1の振り返りが形骸化しかけている:最初の2回は盛り上がったけれど、3回目は「特に変わったことない」で5分で終了。形だけ続けても意味がないので、やり方を工夫する必要あり
  • 学校と家庭のルールのズレ:学校では「AI禁止」寄りの方針なのに、家では「使ってOK」。息子が混乱する場面がある。教員のAI利用率が19.3%(第一生命経済研究所)という数字もあり、学校側もまだ手探りの状態
  • 年長の末っ子への対応が未定:小学校に上がったらどうするか、まだ決めていない。上2人の経験を踏まえてルールを作り直す予定

「対話型にしたら全部うまくいきました!」とは言えません。でも、少なくとも「隠す→相談する」に変わっただけで、親としての安心感は段違いです。

よくある質問(FAQ)

よくある質問(FAQ)のイメージ

Q. 子どもにAIを使わせるのは何歳からがいい?

サービスの年齢制限(ChatGPT・Geminiは13歳以上、Claudeは18歳以上)がベースラインです。小学生が使う場合は、保護者と一緒に使うのが前提。GeminiのFamily Linkのように保護者管理機能があるサービスを選ぶと安心です。

Q. 宿題にAIを使うのはアリ?

わが家では「使ってもいいが、丸写しはナシ」にしています。AIの回答をたたき台にして、自分の言葉で書き直すならOK。電卓を使って計算するのと同じ感覚で、「道具として正しく使う」を教えるほうが将来役立つと考えています。ただし、学校の方針と矛盾しないか確認してください。

Q. AIで怖い目に遭ったらどうする?

まず「怒らない」こと。子どもが怖い経験を報告できる関係を先に作っておくのが最優先です。実際に怖い内容が出たら、スクリーンショットを保存してサービスの通報機能を使う。深刻なケースでは、こども家庭庁やサービス提供者の窓口に相談できます。

Q. ルールを決めても守らなかったらどうする?

「罰」ではなく「振り返り」を。なぜ守れなかったのかを一緒に話し合い、ルールのほうに無理がないか見直します。月1の家族振り返りの場を活用するのがおすすめです。

まとめ:ルールの本質は「制限」ではなく「対話のフレームワーク」

この記事で伝えたかったことを3つにまとめます。

  1. 禁止型ルールは中学生には逆効果になりやすい(別サービスに逃げる・隠す・相談しなくなる)
  2. 子どもと一緒にルールを作ることで「守る動機」が生まれる(自己決定理論の自律性・有能感・関係性)
  3. ルールは完成しない。家族で定期的にアップデートするもの

AIは子どもたちにとって、もう「未来の技術」ではなく「今日使う道具」です。だからこそ、「使うな」ではなく「一緒に使い方を考えよう」が、これからの家庭に必要なスタンスだと感じています。

ルールは、親が子どもを縛るためのものじゃない。家族が安心してAIと付き合うための「対話のフレームワーク」です。

正直、まだ試行錯誤の途中です。でも「禁止」をやめて「対話」に変えただけで、親子の関係が少しラクになりました

年齢別のAI活用法やルールの作り方は、Instagramでも発信しています。

AIルール記事 末尾漫画
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次