ИИ — не решебник, а спарринг-партнер: как мы учим нейросети «вредничать» ради вашего интеллекта
Мы привыкли думать, что идеальный искусственный интеллект — это тот, который мгновенно дает правильный ответ. Спросил «В чем смысл философии Платона?» — получил готовое эссе. Загрузил задачу по физике — получил решение. Удобно? Да. Полезно? Нет.
Когда ИИ делает всю работу за нас, происходит то, что ученые называют «когнитивной атрофией». Мы перестаем думать сами, превращаясь в придаток к алгоритму. Но что, если перевернуть игру?
В Московском техникуме креативных индустрий имени Л.Б. Красина мы разрабатываем концепцию «Сократической машины». Это чат-бот, которому программно… запрещено давать готовые ответы!
Как это работает?
Мы используем генеративный ИИ (на базе больших языковых моделей) как квази-субъекта. Это не просто инструмент, а «цифровая личность» с характером. С помощью специального системного промпта (инструкции) мы заставляем нейросеть играть роль вредного профессора, скептичного заказчика или дотошного оппонента.
Представьте, что вы пишете боту свое мнение, а он не соглашается. Он ищет противоречия в ваших словах.
— «Ты утверждаешь, что цель оправдывает средства. А если средством станет предательство друга?» — спрашивает машина.
Вместо того чтобы списывать, студент вынужден защищаться, аргументировать и искать доказательства. ИИ здесь выступает как интеллектуальный спарринг-партнер. Он создает «систему трудностей», которую нужно преодолеть.
Зачем нам «галлюцинации»?
Многие боятся, что нейросети врут (галлюцинируют). В нашей методике это фича, а не баг! Когда вы спорите с ИИ, вы должны быть начеку. Вы превращаетесь в фактчекера: «А не выдумал ли бот этот аргумент?». Это тренирует критическое мышление лучше любого учебника.
Будущее за теми, кто умеет спорить
В мире, где любой ответ можно получить за секунду, ценность знания падает. Растет ценность умения задавать вопросы и верифицировать информацию.
Мы учим студентов относиться к ИИ не как к Оракулу, знающему истину, а как к мощному, но иногда ошибающемуся собеседнику.
Попробуйте сами - в следующий раз, открывая чат с нейросетью, попросите её не решить задачу за вас, а найти ошибку в вашем решении или покритиковать вашу идею. Уверяю, вы узнаете о себе и о предмете гораздо больше.
Текст и изображение: Константин Павлюц, кандидат философских наук, преподаватель, исследователь философии образования и разработчик концепции ГИИ как антропоморфизированной технологической сущности.
Мы привыкли думать, что идеальный искусственный интеллект — это тот, который мгновенно дает правильный ответ. Спросил «В чем смысл философии Платона?» — получил готовое эссе. Загрузил задачу по физике — получил решение. Удобно? Да. Полезно? Нет.
Когда ИИ делает всю работу за нас, происходит то, что ученые называют «когнитивной атрофией». Мы перестаем думать сами, превращаясь в придаток к алгоритму. Но что, если перевернуть игру?
В Московском техникуме креативных индустрий имени Л.Б. Красина мы разрабатываем концепцию «Сократической машины». Это чат-бот, которому программно… запрещено давать готовые ответы!
Как это работает?
Мы используем генеративный ИИ (на базе больших языковых моделей) как квази-субъекта. Это не просто инструмент, а «цифровая личность» с характером. С помощью специального системного промпта (инструкции) мы заставляем нейросеть играть роль вредного профессора, скептичного заказчика или дотошного оппонента.
Представьте, что вы пишете боту свое мнение, а он не соглашается. Он ищет противоречия в ваших словах.
— «Ты утверждаешь, что цель оправдывает средства. А если средством станет предательство друга?» — спрашивает машина.
Вместо того чтобы списывать, студент вынужден защищаться, аргументировать и искать доказательства. ИИ здесь выступает как интеллектуальный спарринг-партнер. Он создает «систему трудностей», которую нужно преодолеть.
Зачем нам «галлюцинации»?
Многие боятся, что нейросети врут (галлюцинируют). В нашей методике это фича, а не баг! Когда вы спорите с ИИ, вы должны быть начеку. Вы превращаетесь в фактчекера: «А не выдумал ли бот этот аргумент?». Это тренирует критическое мышление лучше любого учебника.
Будущее за теми, кто умеет спорить
В мире, где любой ответ можно получить за секунду, ценность знания падает. Растет ценность умения задавать вопросы и верифицировать информацию.
Мы учим студентов относиться к ИИ не как к Оракулу, знающему истину, а как к мощному, но иногда ошибающемуся собеседнику.
Попробуйте сами - в следующий раз, открывая чат с нейросетью, попросите её не решить задачу за вас, а найти ошибку в вашем решении или покритиковать вашу идею. Уверяю, вы узнаете о себе и о предмете гораздо больше.
Текст и изображение: Константин Павлюц, кандидат философских наук, преподаватель, исследователь философии образования и разработчик концепции ГИИ как антропоморфизированной технологической сущности.