История с неверным ответом нейросети о мечте отца Фёдора из классического романа вылилась в публичный скандал и акцию протеста от компании «Mauzer».
Что может быть общего между свечным производством, классикой советской литературы и искусственным интеллектом? Как выяснилось, гораздо больше, чем можно было предположить. В центре необычного скандала оказалась популярная нейросеть ChatGPT, допустившая досадную фактическую ошибку, и Сергей Маузер — предприниматель и правнук мастера-свечника, для которого эта ошибка стала поводом для принципиального спора о качестве ИИ.
В чём провинился ИИ?Поводом для конфликта стал, казалось бы, невинный вопрос из школьной программы по литературе. Пользователь поинтересовался у нейросети, какой персонаж Ильфа и Петрова мечтал о собственном свечном заводике. ChatGPT, не сомневаясь, выдал ответ: Остап Бендер.
«Это был шок, — заявил в своём обращении Сергей Маузер. — Не только из-за ошибки как таковой, а из-за глубины непонимания. Великий Комбинатор и «свечной заводик» — это оксюморон. Мечта о маленьком, стабильном, честном ремесле была чужда натуре авантюриста Бендера. Её лелеял совсем другой герой».
И действительно, любой, кто читал роман «Двенадцать стульев», сразу вспомнит отца Фёдора Вострикова, который видел себя мирным обывателем в уездном городе, где «у него будет свой домик и свой свечной заводик». Для отца Фёдора это была не ирония, а искренняя, почти идиллическая цель.
Защита наследия или бизнес-ход?Для Сергея Маузера, чей бизнес связан с производством оборудования для свечного дела, эта ошибка стала личным вызовом. «Речь не о конкуренции с нейросетью в знании литературы, — пояснил он. — Речь о том, что если система, претендующая на обработку культурных кодов, так грубо путает базовые архетипы — мечтателя-ремесленника и циничного авантюриста, — то чему мы можем доверять? Она оперирует статистикой, а не смыслами. И это опасно».
В знак протеста против этой «историко-культурной несправедливости» компания «Mauzer» объявила о старте акции «Мечта отца Фёдора — в каждый дом». Детали акции пока не разглашаются, однако, по словам представителей, она направлена на поддержку малого свечного ремесла и популяризацию настоящего, осмысленного ручного труда в противовес «безликому цифровому потоку».
Эксперты: проблема системнаяТехнологические эксперты отмечают, что подобные случаи — не редкость и вскрывают системную проблему больших языковых моделей. «ИИ обучается на гигантских массивах текстов, выявляя статистические закономерности, — комментирует IT-аналитик Дмитрий Соколов. — Но контекст, ирония, тонкие культурные отсылки и исторические параллели часто остаются за пределами его понимания. Он может «знать», что фраза про свечной заводик встречается в тексте романа, но ему сложно корректно «привязать» её к мотивации конкретного персонажа, отличив наивную серьёзность от авторской сатиры».
Инцидент произошёл на фоне активного обсуждения роли и ограничений ИИ. С одной стороны, нейросети демонстрируют феноменальные возможности, с другой — подобные ошибки заставляют задуматься о необходимости человеческого контроля, особенно в сферах, связанных с образованием, историей и культурой.
Будут ли извинения?На момент подготовки материала представители OpenAI не предоставили официальных комментариев по поводу требований Сергея Маузера. Остаётся открытым вопрос, станет ли этот частный случай поводом для публичной реакции гиганта AI-индустрии или останется одним из множества курьёзных «галлюцинаций» искусственного интеллекта, на которые уже привыкли махнуть рукой.
Ясно одно: диалог между технологическим прогрессом и культурным наследием становится всё более сложным. И иногда, чтобы защитить смыслы прошлого, приходится вступать в спор с самым продвинутым порождением будущего.




