Нобелевская премия по физике: какова взрывная сила ИИ?

Лауреатами Нобелевской премии по физике в этом году стали первопроходцы в деле разработки искусственного интеллекта Джон Хопфилд и Джеффри Хинтон. При этом учёные сами неоднократно указывали на потенциальные риски, которые несут в себе исследования в этой области. Европейская пресса делится своими соображениями.

показать/скрыть все цитаты
La Repubblica (IT) /

Лингвистическая атомная бомба

На страницах римской La Repubblica советник Папы Римского Паоло Беннати высказывает предостережение:

«Результат может стать бомбой, которая разрушает не здания и города, но явит собой взрывчатку в культурном плане, а именно в своей лингвистической версии, то есть в виде чатов GPT и других генеративных формах искусственного интеллекта. И эта бомба способна взорвать культурные узы, которые связывают нас, позволяя сосуществовать, - в том случае, если она будет использоваться для создания фейковых новостей и сеяния раздора. Возможно, именно по этой причине в 2023 году Джеффри Хинтон покинул Google после десяти лет работы в компании. ... Объявляя о своей отставке, он выразил свои опасения по поводу того, что искусственный интеллект могут начать использовать в своих неблаговидных целях злонамеренные акторы - например, для манипуляции мнением избирателей - или же для достижения успеха в войнах. Хинтон сравнил своё положение с ситуацией, в которой в своё время оказался Роберт Оппенгеймер.»

Der Tagesspiegel (DE) /

Стокгольм вносит свою лепту

Берлинская Der Tagesspiegel подчеркивает тот факт, что премии удостоен учёный, предостерегающий от возможных последствий своего собственного труда. Такое, как отмечает газета, встречается нечасто:

«Пол Берг, лауреат премии 1980 года, ушедший из жизни в прошлом году, был одним из тех, кто приложил усилия к тому, чтобы генетические исследования и применение их результатов строго регулировались, как это и происходит сейчас, а также к тому, чтобы общественность большинства стран критически следила за этим. Что же касается искусственного интеллекта, то поезд, похоже, уже давно ушел, поскольку искусственный интеллект уже повсеместно применяется, а ведущие компании в этой сфере входят в число наиболее котируемых на мировых биржах. ... Вручая эту премию, Стокгольм пытается сделать всё, что в его силах, для того чтобы обратить внимание общественности не только на возможности, которые открывает нам искусственный интеллект, но и на таящиеся в нём риски.»

La Stampa (IT) /

Разглядеть огромный потенциал

Туринская La Stampa пытается остудить страсти:

«Тревожные предостережения на фоне появления новой технологии - вещь понятная. Так происходит всякий раз, когда что-то потенциально революционное выходит на рынок - и становится частью жизни и культуры общества. Именно так в своё время обстояло дело с автомобилями, электричеством и интернетом. ... Дебаты, основанные на страхах, - это односторонние дебаты. Они сопряжены с риском упустить из виду положительный потенциал новых разработок. ... Искусственный интеллект, основанный на алгоритмах глубокого обучения - каковыми, собственно, занимались Хинтон и Хопфилд, - успешно используется для выявления рака на ранней стадии и уже вовсю работает на профилактику таких заболеваний, как рак молочной железы, печени и простаты.»

NRC Handelsblad (NL) /

Ведь тут нужен какой-то вымысел, замысел...

Пользуясь случаем, амстердамская NRC комментирует вызывающий опасения прецедент в Нидерландах, когда издательство VBK попросило своих авторов помочь в редактировании переводов на английский, выполненных искусственным интеллектом:

«Тут налицо этические и эстетические проблемы. Переводы, выполненные ИИ, кругозор не расширяют, а, наоборот, сужают. Может быть, ИИ и можно использовать для расширения творческих способностей человека, но точно не как их замену. Дело в том, что перевод текста на другой язык - это не просто перевод, но и передача культурного кода. ИИ не распознает стилистические фигуры, неологизмы сглаживаются до чего-то малоузнаваемого. ... Никто не станет спорить с тем, что литература связана с воображением, а ИИ - нет.»