Искусственный интеллект оступается, но наступает. Главные научные новости недели

ИИ настоящий хэдлайнер последних недель. С ним трудно конкурировать людям
Система называется AI-Descartes в честь Рене Декарта. Этот ИИ нашел третий закон Кеплера, связывающий периоды обращения планет вокруг Солнца с их орбитами, и дал хорошее приближение релятивистского закона Эйнштейна о замедлении времени. ИИ опирается не только на данные, но и на известные законы, то есть работает как человек. Но пока физикам беспокоиться особо не о чем. Когда система выводила третий закон Кеплера, в качестве исходных знаний она получила среди прочего закон всемирного тяготения Ньютона. А его одного уже достаточно, чтобы вывести третий закон Кеплера не приблизительно, а точно. Конечно, здорово, что она это умеет, но это немного. Все законы природы описаны людьми для людей, и как-то их теперь надо перерассказать для AI-Descartes. Причем, вот на этом этапе любая даже малая ошибка критична, — система неправильно поймет закон и будет делать из него неправильные выводы.

Человек смотрит на картинки, ему в это время делают скан МРТ. Картинок много. ИИ смотрит на сканы МРТ и на картинки и учится ассоциировать картинки, на которые смотрит человек, и его МРТ. Так проходит обучение. Потом ИИ смотрит только на снимки МРТ и угадает картинки, которые человек видит в это время. Угадывает все точнее и точнее. В результате МРТ может читать мысли. Нужно хорошее разрешение МРТ, чем оно лучше, тем точнее работает распознавание. На этой неделе показали какое-то уже очень сильное разрешение МРТ — в 64 миллиона раз более сильное, чем у клинических томографов. Если ИИ будет смотреть на такие подробные картинки, он, вероятно, сможет записывать сны. Правда, человеку придется спать в томографе.

ChatGPT-4 предложили сдать экзамен на бухгалтера. Экзамен — обычный, вопросы — нормальные. Правда, их довольно много — почти 30 тысяч. И все это вопросы с реальных экзаменов в реальных университетах, на которые отвечали вполне живые студенты. Чат-бот ответил. Его результаты в целом неплохие, но назвать их блестящими тоже сложно — он показал результат примерно в два раза хуже, чем живые студенты. Еще недавно мы даже подумать не могли, что такое возможно. А теперь получается, что 40% верных ответов, — мало. Да, мало, говорят ученые, устроившие ChatGPT этот экзамен на бухгалтера, но он очень быстро учится.

И про апокалипсис. Он пока маленький. Должен был кто-то это попробовать. Попробовали. Сделали ChaosGPT, чья цель уничтожение человечества и мировое господство. Стратегия ChaosGPT выбрана вполне разумная: он решил получить управление над самым страшным оружием, созданным человеком. Пока попытки ИИ успехом не увенчались. Дело ограничилось чатом, в котором ChaosGPT ругает людей и призывает их уничтожить. Кого призывает? Другие чат-боты. Они на него внимания не обращают. Все как у людей.