ИИ ловит наркоторговцев, делает сайты и ругает пользователей: главные новости сегодня

Главные новости 19 июля: ИИ помог задержать наркоторговца. Система Wix подключила возможности чат-бота для быстрого создания сайтов. Определенная система настроек может заставить чат-бот проявить личностные качества, иногда крайне неприятные. ИИ распознает фейковые сообщения, но пока много хуже, чем специалисты по фактчекингу.
ИИ ловит наркоторговцев, делает сайты и ругает пользователей: главные новости сегодня
Unsplash

Искусственный интеллект помог задержать наркоторговца

Американские власти воспользовались услугами компании Rekor для анализа записей дорожного движения. В ходе этого анализа программа определила поведение автомобиля на дороге как подозрительное. Когда машину остановили в ней действительно нашли наркотики и оружие. Rekor описывает себя как платформу «дорожной разведки», управляемую искусственным интеллектом.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Нейросеть делает сайты на платформе Wix

Благодаря встроенной языковой модели новый инструмент Wix поймет, какой сайт вы хотите создать, и сгенерирует оригинальный дизайн, текст и изображения. Инструмент AI Site Generator умеет создавать на сайте интернет-магазин: форму оплаты, витрину товаров и так далее. Как говорят разработчики, дизайн и верстка «полностью соответствуют контенту сайта», а не ограничиваются готовыми шаблонами. Если вы хотите внести правки, вы просто продолжаете разговор с чат-ботом, и он перестраивает сайт.

У ИИ есть много личностей, и некоторые из них злые и враждебные

Ученые изучили появление «темных личностей» в результатах работы больших языковых моделей ChatGPT и Bard. Оказалось, что используя определенную систему запросов можно не только заставить чат-бот проявить характерные черты личности, но заставить его вести себя агрессивно. Склонность к сарказму может повысить «человечность» агентов ИИ и подтолкнуть пользователей к большей открытости. Мошеннические чат-боты могут более убедительно выведывать конфиденциальную информацию у ничего не подозревающих пользователей, убежденных, что они говорят с человеком: «ИИ так вести себя не может». Оказывается, может.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ChatGPT учится обнаруживать фейковую информацию. Но до человека ему далеко

Ученые оценили способность разных больших языковых моделей определять, является ли новостная заметка правдивой или фальшивой. Оказалось, что лучше всего отличает фейковые новости ChatGPT. Эта модель смогла правильно классифицировать истинные или ложные сообщения в более чем 70% случаев. Но специалисты по фактчекингу могут отличать фейковые новости с вероятностью близкой к 100%. ChatGPT еще есть куда расти.