Если вы продолжите пользоваться Веб-сайтом, не изменив настройки, то вы тем самым выражаете согласие на использование файлов cookie на Веб-сайте в соответствии с политикой использования файлов cookie, размещенной на сайте.

Искусственный интеллект не смог поступить в МФТИ

Искусственный интеллект не смог поступить в МФТИ

Эксперты МФТИ провели эксперимент, в рамках которого протестировали генеративную нейросеть Chat GPT-4 Turbo на задачах ЕГЭ по физике.

Согласно данным, полученным в результате эксперимента, искусственный интеллект не достиг успеха, аналогичного успешному абитуриенту МФТИ, не набрав даже 85 баллов — минимальный балл для поступления в Физтех. Представители МФТИ сообщили, что нейросеть допустила несколько очевидных ошибок в решении и объяснении задач, включая как финальные расчеты, так и использование терминологии в физических процессах.

Кандидат физико-математических наук, преподаватель МФТИ и эксперт по работе со школьниками Леонид Колдунов, разбирал задачи по механике, оптике, термодинамике, электричеству и кинематике. По его словам, ошибки нейросети связаны как с финальными расчетами, так и с использованием терминов и пониманием физических процессов. Кроме того, он отметил, что нейросеть иногда делала нелогичные выводы и путалась в формулировке ответа.

Колдунов также подчеркнул, что успешные решения нейросети ограничиваются простыми задачами, не требующими анализа процессов или явлений, а также не способными к творческому подходу. Он привел пример, когда нейросеть не смогла определить изменится ли длина волны в задаче, что требовало анализа, а не простого оперирования формулами.

Игорь Пивоваров, главный аналитик Центра искусственного интеллекта МФТИ и директор конференции по ИИ OpenTalks.AI, отметил, что несмотря на допущенные ошибки и невозможность творческого подхода, модели генеративного интеллекта можно обучить. Пивоваров также подчеркнул, что системы ИИ пока испытывают проблемы с логическим рассуждением, особенно в решении сложных математических задач.

Эксперты подчеркнули, что хотя нейросети могут демонстрировать приемлемый уровень логики в отдельных случаях, их способность к последовательному логическому мышлению пока значительно ниже, чем у человека. Поэтому при решении сложных задач они могут допускать ошибки.

Пивоваров заключил, что хотя модели могут генерировать тексты, похожие на человеческие, это не обязательно означает, что они глубоко понимают предмет. Они могут давать правильные ответы, но не обязательно иметь глубокое понимание.

С уважением, ООО "Компания "База Электроники"

Вернуться на главную