← Назад в блог

Искусственный интеллект для детей: они не учатся пользоваться ChatGPT

Чему на самом деле может научиться 11-летний ребёнок об ИИ? Не как задать вопрос боту — а как бот думает изнутри. Из первых рук — из нашей программы Чёрный пояс по ИИ.

Контекст: ИИ теперь повсюду, но дети учатся неправильно

В последние два года всё больше родителей обращаются с одним и тем же вопросом: «Хочу, чтобы мой ребёнок выучил ИИ.» Тревогу мы понимаем — мир быстро меняется. Но часто то, что родитель себе представляет, — не то, что ребёнку действительно нужно.

Большинство онлайн-материалов про «ИИ для детей» сводятся к одному: как с помощью ChatGPT написать школьное сочинение. Это «использование инструмента», а не понимание ИИ. Это всё равно что сказать, что вы выучили математику, потому что умеете пользоваться калькулятором.

Мы учим совсем другому. На программе Чёрный пояс по ИИ (11–13 лет) дети узнают, как ИИ думает изнутри — как «обучается» модель, как она ошибается, что такое данные, как оценить, работает ли она.

Что 11-летний ребёнок может понять про ИИ

Концепция 1: ИИ = различение

Ближайшая аналогия: ИИ — это программа, которая учится различать вещи. Если мы хотим, чтобы ИИ распознавал кошку на фото, мы показываем ему тысячи изображений с пометкой «кошка» и тысячи без. После достаточного количества примеров он сам начинает различать.

11-летний ребёнок схватывает это мгновенно. Мы рисуем на доске два квадрата. «Чем кошка отличается от собаки?» — обсуждение. «Чем счастливое лицо отличается от грустного?» — обсуждение. ИИ делает именно это, только быстрее и на гораздо большем количестве примеров.

Концепция 2: ИИ ошибается — и ошибается предсказуемо

Главная тема в первый месяц программы: ИИ не «умнее человека». ИИ просто быстрее в одних вещах и гораздо тупее в других.

Когда ребёнок обучает свою маленькую модель (через Teachable Machine или похожий инструмент) и видит, что модель путает «шерсть кошки» с «лохматым ковром» — он понимает границы ИИ. Это куда ценнее любых советов по prompt-инжинирингу для ChatGPT.

Концепция 3: данные определяют поведение

Если ИИ учится только на изображениях светловолосых, он будет плохо распознавать темноволосых. Если учится только на одном языке — не будет знать другой. Этика ИИ начинается отсюда — и ребёнок это понимает.

Разговор, который у нас часто бывает: «Как думаешь, почему какой-то ИИ не понимает слов, которые ты используешь каждый день?» Ответ: потому что данные о твоём мире у него неполные. Большой урок.

Что дети конкретно создают

Программа Чёрный пояс по ИИ длится один семестр. Типичный путь проектов:

  1. Недели 1–2: Игра «угадай, что я нарисовал» — модель распознаёт рисунки.
  2. Недели 3–5: Голосовой помощник для родителя — говоришь «включи свет», и программа реагирует.
  3. Недели 6–8: Маленькая система распознавания позы — камера определяет, ровно ли сидит ребёнок (мама может использовать).
  4. Недели 9–11: Робот, управляемый ИИ-моделью — Lego-робот выполняет команды голосом.
  5. Неделя 12: Финальный проект на выбор ребёнка.

Всё это дети делают сами. Преподаватель помогает, но не делает за них. Финальные проекты часто становятся моментами «мама, смотри, что я сделал» — и часто это не школьные проекты, а то, чем ребёнок реально пользуется потом.

Самый красивый пример из прошлого выпуска

Двенадцатилетний ученик сделал ИИ, который распознаёт, плачет ли его младший брат. Приложение шлёт SMS маме, когда брат проснулся. Реально работает. Никто ему не задавал такой проект — он сам его придумал, когда понял, что вообще может.

Чему ребёнок не учится (и почему это нормально)

Давайте честно и о том, чего мы НЕ делаем:

Цель не в том, чтобы превратить наших двенадцатилеток в ИИ-инженеров. Цель — дать им хорошую интуицию о том, что будет окружать их всю жизнь — чтобы они знали, что ИИ может, что не может, и как пользоваться им с умом.

Что родителю нужно знать перед записью

  1. Чёрный пояс по ИИ — для возраста 11–13. Младшие дети не готовы — не когнитивно, а по концентрации.
  2. Чёрный пояс не рекомендуется как первая программа. Идеально, если у ребёнка уже есть Синий или Красный пояс. Если он приходит «с улицы» — делаем оценку.
  3. Домашних заданий нет, но дети часто работают над своими проектами дома. Не форсируйте — пусть делает только если ему интересно.
  4. После Чёрного пояса по ИИ естественный путь — Python (Чёрный пояс III). Но ребёнок может и завершить путь DigiKids и выбирать, куда идти дальше.

Бонус: этика ИИ для детей

Пять вопросов, которые мы задаём детям в течение программы:

  1. Всегда ли ИИ прав? (Нет.)
  2. Кто отвечает, когда ИИ ошибается — программист или пользователь? (Обсуждение.)
  3. Можно ли скопировать чужую работу и сказать, что она твоя? (Нет.) Можно ли сказать, что твоя работа сделана с помощью ИИ? (Да, если ты это указываешь.)
  4. Может ли ИИ быть предвзятым? (Да, из-за данных.)
  5. Что было бы, если бы все писали домашку с помощью ИИ? (Открытый вопрос, хорошее обсуждение.)

Эти разговоры, честно говоря, ценны и за пределами программирования. Ребёнок, который в 12 лет обсуждает этику ИИ, понимает дилеммы того мира, в который вступает.


Подробнее о программе: Чёрный пояс — ИИ и Робототехника. Пробный урок бесплатный, после него мы честно скажем, подходит ли программа вашему ребёнку именно сейчас.

Пробный урок Чёрного пояса по ИИ.

Посмотрите, как выглядит 12-летка, который учится обучать собственную ИИ-модель.

Записаться на пробный урок