Ян ЛеКун

Ян ЛеКун

Ян ЛеКун

Ян ЛеКун (Yann LeCun) – французский и американский учёный в области информатики. Основные сферы деятельности – искусственный интеллект (ИИ), машинное обучение, компьютерное зрение, мобильная робототехника и вычислительная нейробиология (https://en.wikipedia.org/wiki/Yann_LeCun).

Он родился 8 июля 1960 года во Франции. В середине семидесятых услышал от Сеймура Пейперта о перцептроне и сразу влюбился в идею машины, которая способна учиться. Получил диплом инженера ESIEE Paris в 1983 году.

В 1985 году в Париже будучи аспирантом ЛеКун присутствовал на конференции по нестандартным подходам в информатике, где с докладом выступал Джеффри Хинтон (Geoffrey Hinton), (https://ru.wikipedia.org/wiki/Хинтон,_Джеффри), который в 2024 году стал лауреатом Нобелевской премии по физике за выдающиеся результаты в области глубокого обучения (https://computer-museum.ru/articles/galglory_inostranci/7305/). Интересно, что термин «глубокое обучение», присутствующее в «формуле» премии, было предложено Хинтоном для замены нелюбимого продолжительное время научной общественностью термина «нейронные сети».

Вот что писал об отличительной особенности Хинтона его бывший студент: «Каждый раз, когда я натыкаюсь на интересного исследователя или на интересную работу, связанную с машинным обучением, обнаруживалась прямая связь с Хинтоном. Не знаю, то ли он выбирает людей, которые становятся успешными, то ли он каким-то образом делает их успешными». Это в полной мере относится и к ЛеКуну.

После доклада Яну на указанной выше конференции стало ясно, что Хинтон один из немногих людей на Земле, которые в науке придерживались тех же взглядов, что и он. Хинтон слышал о нем и хотел с ним познакомиться, что и произошло на следующий день. Несмотря на то, Хинтон практически не говорил по-французски, а Ян не очень хорошо говорил по-английски, они говорили на «одном языке»: языке когнитивистики – науки, изучавшей вопросы мышления и обучения.

Докторскую степень по информатике ЛеКун получил в Sorbonne University Pierre and Maria Curie Campus 1987 году. На защиту его диссертации Хинтон приезжал специально, хотя по-прежнему почти ничего не понимал по-французски.

В том же году ЛеКун стал постдоком у Хинтона в университете Торонто. Там он год занимался исследованиями в области машинного обучения и начал разрабатывать идею, лежавшую в основе свёрточных сетей.

При этом надо отметить, что сначала Хинтон, как старший по возрасту, а потом ЛеКун, долгое время сталкивались с непониманием и неверием как научной общественности, так и начальства, в то, чем они долгие годы занимались наперекор всем обстоятельствам. В свое время руководство в течение многих лет не позволяло Хинтону нанять для исследований по этой тематике даже одного сотрудника. Джеффри так объяснял их позицию: «Они, видимо, считали, что одного сумасшедшего, работающего над этим, более чем достаточно».  Подтверждение этого применительно к Яну: он свое изобретение «свёрточные нейронные сети» назвал проще: «свёрточные сети», так как слово «нейронные» многие не хотели даже слышать. Однако, ЛеКун все время верил в то, что нейронные сети представляют собой путь к реальным и полезным для практики технологиям.

Еще одна история, подтверждающая сказанное. Однажды в это время Хинтон представил доклад на конференцию NIPS (Neural Information Processing Systems). Она в конце 1980-х годов была задумана как площадка для обсуждения исследований по различным нейронным сетям, как биологическим, так и искусственным. Организаторы отклонили работу Хинтона, так как уже приняли одну работу по близкой тематике, и посчитали, что этого достаточно. «Нейронные» стало плохим словом даже для конференции, в название которой это слово входило. При подаче статей в журналы ученые тоже избегали применять его.

ЛеКун рассказывает (https://youtu.be/Mj0P8jHc6xY): «В развитии нейронных сетей, в котором он принимал участие, было две волны. Первая волна началась в восьмидесятых, когда стали получаться хорошие результаты с глубокими нейронными сетями. Этот подход сегодня называется «глубоким обучением». Для задач распознавания простых изображений, например рукописных символов, этот подход работает по-настоящему хорошо. Поэтому возникла волна энтузиазма, которая продлилась до середины 90-х. Потом интерес к этому направлению исследований практически исчез, так как разработанный поход требовал очень много данных, а это было до появления Интернета, и хорошие данные можно было получить только для задач распознавания (рукописного текста, символов, речи). Кроме того, требовались мощные компьютеры, которые в то время были очень дорогими. Вторая волна интереса к глубокому обучению возникла в двухтысячных, а в 2013 году произошел настоящий взрыв интереса к нему в обществе: в него начали вкладывать много денег, и им занялось много умных людей. До первой волны была ещё одна волна, которая началась с предложенного в 1957 году перцептрона, которая быстро закончилась». Теперь обо всем этом более подробно.

В 1987 году перед получением докторской степени ЛеКун предложил раннюю форму алгоритма с обратным распространением ошибки (backpropagation) для нейронных сетей (https://en.wikipedia.org/wiki/Backpropagation). Обратное распространение сформулировано математически на основе Лагранжева формализма, который был предложен в теории оптимального управления в начале 1960-х годов. Вот статья об этом: https://web.archive.org/web/20100612150820/http://www.ics.uci.edu/~welling/teaching/273ASpring09/lecun-89e.pdf.

В 1988 году ЛеКун начал работать в AT&T Bell Laboratories, где разрабатывал нейронные сети и методы машинного обучения. Эта компания, которая обычно называлась коротко – Bell Lab, была широко известна в мире своими изобретениями: транзистор, лазер, Unix, язык С и т. д.

Там же ЛеКун совместно с Леоном Боту (https://en.wikipedia.org/wiki/Léon_Bottou) разработал язык программирования Lush (Lisp Universal Shell). Это Lisp-подобный язык для машинного обучения, который является прямым наследником языка SN, созданного в 1987 году для симуляции нейросетей.

В Bell Lab его основным достижением стала предложенная в 1988 году одна из архитектур для глубокого обучения (https://ru.wikipedia.org/wiki/Глубокое_обучение) – свёрточные сети (Свёрточные Сети – Convolutional Networks), которые вдохновлены структурой зрительной коры головного мозга и предназначены для эффективной обработки изображений, видеопотоков, аудиозаписей, человеческой речи и т. д. (https://ru.wikipedia.org/wiki/Свёрточная_нейронная_сеть). Название эта архитектура получила из-за использования операции свёртки, суть которой состоит в том, что каждый фрагмент изображения умножается на матрицу свёртки поэлементно, а результат суммируется и записывается в аналогичную позицию выходного изображения. 

ЛеКун разработал также методы регуляризации нейросетей (https://proceedings.neurips.cc/paper/1989/file/6c9882bbac1c7093bd25041881277658-Paper.pdf) и применения градиентных методов для распознавания документов (https://www.dengfanxin.cn/wp-content/uploads/2016/03/1998Lecun.pdf).

На тему градиентных методов в 1998 году Ян опубликовал совместно с Йошуа Бенжио (Yoshua Bengio) (https://ru.wikipedia.org/wiki/Бенжио,_Йошуа) и с двумя другими соавторами статью: Gradient-based learning applied to document recognition // Proceedings of the IEEE. 1998. 86 (11), pp. 2278-2324, https://ieeexplore.ieee.org/abstract/document/726791. В статье было подробно объяснено, как заставить работать сверточную сеть, управляемую графами, а не только массивами чисел. Эта статья на 30.08.2025 года имела 78 337 цитирований. На ту же дату ЛеКун имел индекс Хирша 161 и 423 341 цитирование (https://scholar.google.com/citations?user=WLN3QrAAAAAJ&hl=en). Вот его личный сайт: http://yann.lecun.com.

Йошуа Бенжио (https://en.wikipedia.org/wiki/Yoshua_Bengio) родился в 1964 году также, как и ЛеКун, во Франции. Является самым цитируемым учёным в мире в области информатики (https://scholar.google.com/citations?user=kukA0LcAAAAJ&hl=en). На 30.08.2025 года его индекс Хирша (https://scholar.google.com/citations?user=kukA0LcAAAAJ&hl=en) – 249, а число цитирований – 976 477. Он соавтор двух статей с числом цитирований более 100 000, одна из которых написана с Хинтоном и ЛеКуном (https://hal.science/hal-04206682/document).

На основе градиентных методов ЛеКун в 1989 году (https://d-russia.ru/reinkarnaciya-iskusstvennogo-intellekta-kak-eto-delayut-v-facebook.html) разработал систему LeNet (https://en.wikipedia.org/wiki/LeNet), в которой начали применяться для оптического распознавания символов (OCR) методы, основанные на принципах работы биологических нейронных сетей. Эта система была успешно применена для распознавания рукописных цифр (Backpropagation Applied to Handwritten Zip Code Recognition, https://ieeexplore.ieee.org/abstract/document/6795724). Интересно, что сделанное так понравилась автору, что он назвал систему в свою честь, и под этим названием она вошла в историю информатики.

ЛеКун всегда верил, что используемая им технология может быть существенно усовершенствована за счет создания новой разновидности компьютерных чипов, единственной задачей которых является обучение нейронных сетей. Но он не говорил об этом вслух. Он считал, что «не стоит вслух говорить об этом, пока слова не подтверждены делом. Вот если ты создал систему, и она работает, то тогда ты можешь сказать: «Посмотрите, вот какие мы имеем результаты на такой-то базе данных», но все равно тебе никто не поверит. Даже когда у тебя есть все доказательства, и ты демонстрируешь, как это работает, – даже тогда тебе не поверят».

В Bell Lab Лекун и его коллеги разработали микрочип, получивший название ANNA. Это был акроним (разновидность аббревиатуры) с акронимом внутри. Это название расшифровывалось как Analog Neural Network ALU, а акроним ALU расшифровывался так: Arithmetic Logic Unit. ALU было специальной микросхемой, предназначенной для расчетов, связанных с нейронными сетями. Благодаря этому расчеты выполнялись значительно быстрее, чем это происходило обычно в то время. Через двадцать лет мировая промышленность пошла этим же путем, создавая чипы для нейронных сетей.       

В 1996 году ЛеКун совместно с упомянутым выше Леоном Боту и Патриком Хаффнером разработал технологию сжатия изображений DjVu. Он занимался этим, так как в это время для нейронных сетей была «зима».

В группе ЛеКуна в AT&T работал выдающийся ученый Владимир Вапник (https://computer-museum.ru/articles/galglory_ru/5152/), который создал статистическую теорию восстановления зависимостей по эмпирическим данным, которая была названа методом опорных векторов, который занимает центральное место среди алгоритмов ИИ благодаря универсальности и эффективности при работе с задачами классификации, регрессии и поиска аномалий (https://habr.com/ru/articles/802185/). Но даже он не верил в будущее нейронных сетей. Вапник говорил: «Через 10 лет никто в здравом уме не будет использовать нейронные сети».

Научное сообщество фактически игнорировало ЛеКуна, но он не сдавался! В это же время профессор Стэнфордского университета Эндрю Ын утверждал, что Лекун – единственный в мире человек, который по-настоящему сумел заставить работать нейронные сети, но это мало что меняло в отношении общества к исследованиям в этой области. На этом фоне даже у ЛеКуна возникали сомнения, так как для нормальной работы нейронных сетей требовались огромные объемы данных и компьютеры большой мощности, чего еще не существовало. 

С самого начала своей деятельности Ян старался развивать Open Source (https://habr.com/ru/companies/ruvds/articles/903640/). В какой-то момент у него стали возникать проблемы в AT&T. Ему, в частности, не позволили распространить симулятор нейронных сетей с открытым кодом, проект с банковским сканером был закрыт, а ЛеКуна практически лишили возможности заниматься нейронными сетями.

В 2002 г. ЛеКун перешел в японский исследовательский институт NEC в Принстоне, где он снова смог заниматься нейронными сетями. Через две недели после перехода в NEC Яну позвонил Ларри Пейдж и предложил должность директора по исследованиям в стартапе Google на 600 человек. ЛеКун отказался, так как не хотел переезжать в Калифорнию и не верил, что ему там предоставят возможность заниматься фундаментальными исследованиями. Однако через полтора года работы в NEC и там стали требовать практического выхода, а руководство института перестали интересовать нейронные сети. 

В 2003 году Ян перешел в Нью-Йорский университет, где работал профессором компьютерных наук и нейронаук Курантовского института математических наук в Нью-Йоркском университете (NYU). Он также профессор Инженерной школа Тандона NYU. В этом университете ЛеКун руководил исследованиями в области нейронаук и машинного обучения.

В то время в США исследования в области когнитивистики почти исчезли из ведущих университетов – единственная серьезная лаборатория в этой области была у ЛеКуна. Главным местом для тех, кто верил в эту науку, была Канала: Джеффри Хинтон работал в университете Торонто, а коллега ЛеКуна по работе в Bell Lab Йошуа Бенжио руководил лабораторией по этой тематике в университете Монреаля. Изучив работы ученых из Канады, упомянутый выше профессор Эндрю Ын решил заняться этой тематикой в Стэнфорде.

В 2004 году, когда интерес к нейронным сетям в целом пошел на убыль, Хинтон удвоил свои усилия в их исследовании. При этом он утверждал следующее: «Старое – это новое, и если идея хороша, а Вы продолжаете попытки двадцать лет, развивая ее, то она скорее всего сработает. Идея не перестает быть хорошей, если она не сработала сразу. Если у Вас есть идея, и она Вам кажется правильной, не позволяйте никому убедить Вас в том, что это глупость. Просто не обращайте на них внимания». При этом следует отметить, что идеи Хинтон ценил выше математики, связанной с ними.

Несмотря на сказанное, в 2004 году Канадский институт перспективных исследований запустил пятилетнюю программу «Нейронные сети и адаптивное восприятие», в которой Хинтон – директор, а Ян – научный консультант. 

Примерно в 2010 году свёрточные сети стали широко использоваться, например в мобильных телефонах. Новые автомобили в ЕС обязаны иметь системы помощи водителю, использующие эти сети. Они, как минимум, тормозят машину перед препятствием.

В 2012 году ЛеКун основал университетский «Центр науки о данных» (https://cds.nyu.edu/) с первой в мире программой высшего образования по Data science.

В том же году ученики Хинтона – Алекс Крижевский и Илья Суцкевер купили две карты GeForce за свой счет. Они использовали эти карты совместно, разработав систему, способную анализировать тысячи фотографий и обучать саму себя распознавать с высокой точностью такие объекты как цветы, собаки и автомобилиТем самым ими было значительно улучшено компьютерное зрение. Это была первая работа, которая популяризировала в компьютерном зрении сверточные нейронные сети, разработанные Яном Лекуном. 

После многих лет нелюбви в 2012 году нейронные сети в мире снова полюбили, и Лекун, продолжая работать NYU, в конце 2013 года стал руководить вновь организованной лабораторией Facebook AI Research. Лаборатория по просьбе Яна была организована в Нью-Йорке, а Цукерберг лично обещал ему, что исследования могут быть открытыми, так как это ускоряет прогресс в исследованиях. Потом лаборатории по этой тематике были созданы им в Париже и Монреале.

Интересно, что по причине открытости по числу докладов на крупнейших конференциях по ИИ в последние годы многие технологические гиганты опережают лучшие университеты мира (https://vk.com/@1077823-sterligov-i-komputernye-nauki-v-mire-i-rossii-analiz-cherez). Лекун говорит, что прогресс в области ИИ в последнее десятилетие связан с открытыми исследованиями, и с эти согласны абсолютно все. По его мнению, конкуренция должна происходить на уровне продуктов, а не базовых методов.

ЛеКун говорил по поводу открытости исследований: «Я не знаю, как проводить исследования, если нет открытости, если мы не являемся частью единого научного сообщества. Потому что, если Вы занимаетесь чем-то тайно, то о высоком качестве исследований не может быть и речи. Вы лишены возможности привлекать себе лучшие умы, которые способны продвигать науку вперед».

В 2016 году на ЛеКуна, как и положено в корпорациях, начался «наезд». После его отчета о деятельности лаборатории технический директор Facebook накинулся на него с такими словами: «Нам нужно что-то, что показало бы, что мы в чем-то опережаем другие компании. Мне все равно, как Вы это сделаете. Нам просто нужно в чем-то обойти конкурентов. Начните соревнование, в котором мы точно сможем победить». Однако, ЛеКун был не из тех, кто гонится за сенсациями и громкими успехами. Проработав в этой области несколько десятилетий, он смотрел на разработки по ИИ как на не терпящие суеты долговременные исследования.

Вот как ЛеКун объясняет свой многолетний интерес к нейронным сетям: «Вы получаете систему с данными на входе, а так как система имеет несколько слоев, каждый слой в результате обучения определит, как преобразовать данные, полученные от предыдущего слоя так, чтобы последний слой выдал правильный результат. Деятельность в рассматриваемом направлении – это взаимодействие между прозрениями, моделированием, реализацией, эмпирическими исследованиями и анализом. Прозрение – это творческое мышление, моделирование – это математика, реализация – это инженерия и взлом, эмпирическое исследование и анализ – наука». 

В 2018 году он оставил должность руководителя лаборатории и стал главным научным сотрудником этой компании по ИИ, а потом и ее вице-президентом, отвечающим за научное и стратегическое направления. 

По состоянию на 2022 год ЛеКун занимал в корпорации Meta (запрещена на территории РФ), куда входит Facebook, должность вице-президента и главного научного сотрудника по ИИ. Он курирует разработку моделей глубокого обучения, включая большую языковую модель LLaMA2 с открытым исходным кодом. Ян считает, что если глубокое обучение из корпорации вырвать, то она рухнет, так как в ее программных продуктах оно много, где используется. 

В сети стал вирусным пост Яна, в котором в качестве примера успешных открытых моделей он приводит DeepSeek: «Тем, кто видит результаты DeepSeek и думает, что Китай превосходит США в области ИИ. Вы неправильно понимаете. Правильное понимание: «Модели с открытым исходным кодом превосходят проприетарные». DeepSeek извлекает выгоду из открытых исследований и открытого исходного кода (например, PyTorch и LLaMA от Meta). Они придумывали новые идеи и развивали их на основе чужих разработок. Поскольку эта работа опубликована и имеет открытый исходный код, каждый, в свою очередь, может извлечь из неё выгоду. В этом и заключается сила открытых исследований и открытого исходного кода» (https://www.linkedin.com/posts/yann-lecun_to-people-who-see-the-performance-of-deepseek-activity-7288591087751884800-I3sN). ЛеКун также считает, что это уже не первый раз, когда из Китая выходит очень качественная инновационная разработка. В компьютерном зрении это давняя традиция – в ведущих конференциях по этой тематике половина участников из Китая – там очень сильные ученые и невероятно умные люди.

При этом ЛеКун замечает, что он работает с людьми, которые умнее его, и он при этом не испытывает дискомфорт. То же самое могу сказать и я применительно к работе на кафедре «Компьютерные технологии» Университета ИТМО (https://computer-museum.ru/biblioteka/publication/1668/).

30 октября 2023 года ЛеКун подписал открытое письмо президенту США Джо Байдену, призывая к использованию ИИ с открытым исходным кодом, заявив, что разработка и контроль над ИИ не должны находиться под управлением нескольких корпораций, а должны быть открыты для широкой общественности и разработчиков. Он выступает за открытую платформу ИИ, чтобы обеспечить более быстрый прогресс, безопасность и многообразие культурных и языковых особенностей в системах ИИ. ЛеКун считает, что страхи вокруг ИИ не должны приводить к запретам на открытые исследования, так как, по его мнению, открытость – это единственный способ сделать ИИ по-настоящему всесторонним и репрезентативным для всего человечества.

Несмотря на изложенное выше, сегодня Meta существенно отстает от мировых лидеров в области разработки LLM, что приводит к невероятным усилиям Цукерберга по созданию эффективных моделей (https://vk.com/@1077823-borba-ne-na-zhizn).

В то же время ЛеКун с коллегами из NYU разрабатывает новый тип ИИ, основанный на глубоком обучении, но который будет понимать физический мир, иметь долговременную память, а также сможет рассуждать, планировать, возможно иерархически, достижение цели и испытывать эмоции, такие как страх, воодушевление или восторг. Это связано с тем, что современные модели мы принимаем за умные, так как они очень хорошо владеют языком (https://youtu.be/Mj0P8jHc6xY).

Отмечу также, что ЛеКун соучередитель и советник ряда стартапов и технологических компаний, связанных с биометрией, музыкой, консалтингом и робототехникой (https://habr.com/ru/companies/ruvds/articles/903640/).

Теперь о его наградах. Очень «весомой» премией в мире является премия Тьюринга, называемая Нобелевской премией по информатике. В 2019 году ЛеКун (Facebook AI Research, New York University (NYU)) совместно с Джеффри Хинтоном (University of Toronto) и Йошуа Бенжио (Université de Montréal) получили ее «за концептуальные и инженерные прорывы, сделавшие глубокие нейросети краеугольным компонентом в вычислительной технике». Их речь на награждении этой премией приведена здесь: https://www.cs.toronto.edu/~hinton/absps/ACM21.pdf

Представляя лауреатов, известный специалист по ИИ Джефф Дин сказал: «На протяжении многих лет большая часть научного сообщества с огромным сомнением относилась к их деятельности, но, вопреки всему они сумели разработать целый комплекс технологий, которые изменили и продолжают изменять весь научный и культурный ландшафт. Пора признать величие их заслуг тем, кто долго держался противоположной точки зрения».

До награждения показали видео, в котором ЛеКун сказал: «Я всегда был уверен, что я прав», а также, что «у машины здравого смысла все еще меньше, чем домашней кошки».

Первым, так как он был самым молодым из лауреатов, выступил Бенжио: «Сначала Хинтон и ЛеКун были для меня примерами для подражания, потом стали моими наставниками, а затем – друзьями и коллегами». Еще он сказал: «Честь, оказанная нам, неотделимо от ответственности. Наши инструменты могут быть использованы как во благо, так и во зло».

ЛеКун в своей речи, в частности, сказал: «Я уже привык, что мне люди всегда указывали на мои оплошности. Теперь мне надо быть особенно осторожным в своих поступках, так как отныне никто не осмелится сказать мне, что я неправ».

В 2022 году пути Джеффри Хинтона, руководителя компании Google DeepMind Демиса Хассабиса, который, как и Хинтон, в 2024 году стал лауреатом Нобелевской премии, но по химии (https://computer-museum.ru/articles/frgnhist/7632/), а также Яна Лекуна и Йошуа Бенжио сошлись, когда они получили премию Принцессы Астурийской (её имя Леонор – она наследница испанского престола) по технике и научным исследованиям (https://www.fpa.es/en/princess-of-asturias-awards/laureates/2022-geoffrey-hinton-yann-lecun-yoshua-bengio-and-demis-hassabis/).

В хорошей сказке обязательно должна быть принцесса, она, естественно, в лице принцессы Астурийской оказалась и в этой сказочной истории про глубокое обучение и людей, которые его создавали! 

В феврале 2024 года ЛеКун стал еще и лауреатом премии TIME100 Impact Award, которая отмечает людей, существенно повлиявших на развитие своей индустрии и мира в целом. Он награжден за новаторский вклад в развитие нейросетей, обработку изображений и разработку технологий автоматического экстренного торможения для автомобилей, модерации в соцсетях и систему распознавания речи и естественного языка. Он был отмечен также за оптимистичный взгляд на развитие ИИ и за новаторскую деятельность, продвигающую открытость и безопасность технологий.

В 2025 году Хинтон, ЛеКун и Бенжио получили премия Елизаветы II в области инженерного дела. Эта награда вручается раз в два года за технические инновации, которые положительно повлияли на человечество. Премия названа в честь королевы Великобритании и не только её. На этот раз премия была присуждена за важный вклад в развитие технологий машинного обучения, что является важной частью инженерного прогресса.

 

Книга Яна переведена на русский язык: ЛеКун Я. Как учится машина. Революция в области нейронных сетей и глубокого обучения. М.: Альпина ПРО. 2025, 335 с. (https://www.livelib.ru/author/1846741-yan-lekun).

Очень интересно также интервью ЛеКуна на тему «Мозг, Биты и Будущее» (https://www.youtube.com/watch?v=zbrY4H710fo), переведенное на русский язык, которое у него взял известный в мире интервьюер Лекс Фридман. Вот некоторые из подкастов Фридмана, озвученные по-русски (https://www.youtube.com/playlist?list=PLrAXtmErZgOeC91rGIZCJ5uGb3DvD1Ijf). Ещё два интервью ЛеКуна: https://www.youtube.com/watch?v=Mj0P8jHc6xY и https://youtu.be/LR1I6jHR3pI.

Лекция ЛеКуна «Математические препятствия на пути к ИИ человеческого уровня» опубликована здесь: https://www.youtube.com/watch?v=ETZfkkv6V7Y.

Вот видео, в котором Ян рассказывает о себе, и, в частности, о том, как зародилось «глубокое обучение»: https://www.youtube.com/watch?v=l3Emh_cekZo.

Приведу ссылки на лекции, которые читает ЛеКун, озвученные по-русски: 1. История и потенциал (https://www.youtube.com/watch?v=3aWrc5jBKlA). 2. Градиентный спуск и алгоритм обратного распространения (https://www.youtube.com/watch?v=BYXQiHJkYBA). 3. Модули и архитектура (https://www.youtube.com/watch?v=Ci4-Z4vCBaU). 4. Рекуррентные и сверточные сети с разделением параметров (https://www.youtube.com/watch?v=UV8SCvLmsXk).

Теперь мнение ЛеКуна о ближайшем будущем ИИ. «Я полагаю, что срок годности текущей парадигмы (больших языковых моделей) короткий, может быть, три-пять лет. Я полагаю, что через пять лет никто в здравом уме не будет их уже использовать в качестве центрального компонента системы ИИ. Я полагаю, мы увидим появление новой архитектуры ИИ, которая, возможно, будет лишена ограничений современных систем ИИ» (https://hightech.plus/2024/05/24/yan-lekun-prizval-razrabotchikov-ne-tratit-vremya-na-byam).

«Центральным компонентом новой волны ИИ будет робототехника, которая перенесет возможности ИИ в реальный мир. Возможно, следующие десять лет станут десятилетием робототехники и, возможно, мы создадим системы ИИ, которые окажутся достаточно умными, чтобы понять, как работает реальный мир. Однако, сегодня у нас нет роботов, которые могли бы то, что может кот – кошачье понимание физического мира намного превосходит все, что мы можем сегодня сделать с ИИ. Поэтому он не верит в скорое появления сверхразумного ИИ» (https://hightech.plus/2025/01/24/yan-lekun-sleduyushee-desyatiletie-budet-desyatiletiem-robotov).

В 2022 году ЛеКун предложил новый подход к решению ключевых проблем ИИ-системы – I-JEPA (Image-based Joint Embedding Predictive Architecture). Он базируется на следующих понятиях: Image-based – эта архитектура работает с изображениями, а не с текстом; Joint Embedding – используется совместное представление различных частей изображения в скрытом пространстве признаков; Predictive Architecture – модель предсказывает недостающие части изображения, используя абстрактные признаки вместо детализации на уровне пикселей. Модель не восстанавливает отдельные пиксели изображения. Она обучается понимать семантику картинки и делать предсказания на основе крупных частей изображения, что приближает её «мышление» к человеческому. Такая макроархитектура позволяет достигать высокой эффективности в задачах компьютерного зрения. Модель поддерживает быстрое обучение и хорошо работает даже с небольшими объёмами данных. В ней могут использоваться трансформеры.

«В данном случае речь идет о разработке системы ИИ, которая способна самостоятельно формировать свое индивидуальное видение реальности. Это позволяет ей обучаться быстрее: решать сложные задачи и легко подстраиваться под непредвиденные условия. Эта модель анализирует и эффективно дополняет незавершенные изображения, притом в отличном качестве, которое, по мнению компании, значительно превосходит существующие модели. В отличие от обычных генеративных моделей ИИ, I-JEPA использует базовые знания о мире, чтобы заполнить недостающие элементы изображений» (https://venturebeat.com/ai/meta-releases-i-jepa-a-machine-learning-model-that-learns-high-level-abstractions-from-images/).

По мнению ЛеКуна «все революции несут в себе возможности и риски. Например, революция в печати 15 века привела к 200-летнему религиозному конфликту, но породила эпоху Просвещения.

ИИ принесет миру много пользы, и не стоит отпугивать людей от технологии, эксплуатируя закономерный страх перед ней» (https://vc.ru/future/971736-yan-lekun-vizioner-i-otec-iskusstvennogo-intellekta-o-tehnologii-i-budushem).

А здесь описывается спор ЛеКуна с генеральным директором Anthropic Дарио Амодеи: https://habr.com/ru/companies/bothub/news/917578/. По мнению ЛеКуна, Амодеи «заблуждается относительно опасностей и возможностей современных систем ИИ» (https://didius.media/ian-lekun-iskusstvennyi-intellekt-ne-predstavliaet-ekzistentsialnoi-ugrozy-chelovechestvu/).

Кстати, у Хинтона и, как отмечено выше, у Бенжио (https://hightech.plus/2024/10/06/ioshua-benzhio-bez-regulirovaniya-ii-posledstviya-budut-katastroficheskimi) не такие оптимистические мнения относительно будущего ИИ, как у ЛеКуна, который считает, что ситуация с ИИ сегодня такая же, как была с самолетами век назад, когда многие хотели запретить их, так как считали, что они могут сбросить бомбу или разбиться, беспосадочно перелетая через Тихий океан, что впервые осуществилось лишь в 1931 году. Теперь его можно регулярно перелететь с двумя двигателями, а ещё не так давно их должно было быть четыре. Техника прогрессирует в правильном направлении, Лекун верит, что то же самое будет происходить и с ИИ.

Ян считает, что в долгосрочной перспективе ИИ может иметь эффект, аналогичный или даже больший, чем изобретению печатного станка, который сделал людей грамотнее, умнее и более информированными.

Очень интересной в связи с рассматриваемой в этом тексте тематикой является книга Метц К. Создатели искусственного гения. О бунтарях, которые наделили интеллектом Google, Facebook и весь мир. Минск: Попурри, 2021. 320 с. Первый эпиграф этой книги: «И сейчас наступило изумительное время: всё, что мы почитали знанием, лопнуло, точно мыльный пузырь» (Том Стоппард), и к этому «безобразию» приложил свою голову и «руку» Ян ЛеКун, который был долгие годы непреклонен в желании добиться этого. 

Об авторе: Анатолий Шалыто - докт. техн. наук, профессор, Университет ИТМО
Помещена в музей с разрешения автора 15 октября 2025