Нобелевская премия по физике: какова взрывная сила ИИ?
Лауреатами Нобелевской премии по физике в этом году стали первопроходцы в деле разработки искусственного интеллекта Джон Хопфилд и Джеффри Хинтон. При этом учёные сами неоднократно указывали на потенциальные риски, которые несут в себе исследования в этой области. Европейская пресса делится своими соображениями.
Лингвистическая атомная бомба
На страницах римской La Repubblica советник Папы Римского Паоло Беннати высказывает предостережение:
«Результат может стать бомбой, которая разрушает не здания и города, но явит собой взрывчатку в культурном плане, а именно в своей лингвистической версии, то есть в виде чатов GPT и других генеративных формах искусственного интеллекта. И эта бомба способна взорвать культурные узы, которые связывают нас, позволяя сосуществовать, - в том случае, если она будет использоваться для создания фейковых новостей и сеяния раздора. Возможно, именно по этой причине в 2023 году Джеффри Хинтон покинул Google после десяти лет работы в компании. ... Объявляя о своей отставке, он выразил свои опасения по поводу того, что искусственный интеллект могут начать использовать в своих неблаговидных целях злонамеренные акторы - например, для манипуляции мнением избирателей - или же для достижения успеха в войнах. Хинтон сравнил своё положение с ситуацией, в которой в своё время оказался Роберт Оппенгеймер.»
Стокгольм вносит свою лепту
Берлинская Der Tagesspiegel подчеркивает тот факт, что премии удостоен учёный, предостерегающий от возможных последствий своего собственного труда. Такое, как отмечает газета, встречается нечасто:
«Пол Берг, лауреат премии 1980 года, ушедший из жизни в прошлом году, был одним из тех, кто приложил усилия к тому, чтобы генетические исследования и применение их результатов строго регулировались, как это и происходит сейчас, а также к тому, чтобы общественность большинства стран критически следила за этим. Что же касается искусственного интеллекта, то поезд, похоже, уже давно ушел, поскольку искусственный интеллект уже повсеместно применяется, а ведущие компании в этой сфере входят в число наиболее котируемых на мировых биржах. ... Вручая эту премию, Стокгольм пытается сделать всё, что в его силах, для того чтобы обратить внимание общественности не только на возможности, которые открывает нам искусственный интеллект, но и на таящиеся в нём риски.»
Разглядеть огромный потенциал
Туринская La Stampa пытается остудить страсти:
«Тревожные предостережения на фоне появления новой технологии - вещь понятная. Так происходит всякий раз, когда что-то потенциально революционное выходит на рынок - и становится частью жизни и культуры общества. Именно так в своё время обстояло дело с автомобилями, электричеством и интернетом. ... Дебаты, основанные на страхах, - это односторонние дебаты. Они сопряжены с риском упустить из виду положительный потенциал новых разработок. ... Искусственный интеллект, основанный на алгоритмах глубокого обучения - каковыми, собственно, занимались Хинтон и Хопфилд, - успешно используется для выявления рака на ранней стадии и уже вовсю работает на профилактику таких заболеваний, как рак молочной железы, печени и простаты.»
Ведь тут нужен какой-то вымысел, замысел...
Пользуясь случаем, амстердамская NRC комментирует вызывающий опасения прецедент в Нидерландах, когда издательство VBK попросило своих авторов помочь в редактировании переводов на английский, выполненных искусственным интеллектом:
«Тут налицо этические и эстетические проблемы. Переводы, выполненные ИИ, кругозор не расширяют, а, наоборот, сужают. Может быть, ИИ и можно использовать для расширения творческих способностей человека, но точно не как их замену. Дело в том, что перевод текста на другой язык - это не просто перевод, но и передача культурного кода. ИИ не распознает стилистические фигуры, неологизмы сглаживаются до чего-то малоузнаваемого. ... Никто не станет спорить с тем, что литература связана с воображением, а ИИ - нет.»