Чат-боты оказались способны нарушать закон

Чат-боты оказались способны нарушать закон

Международная группа ученых доказала, что искусственный интеллект (ИИ) можно использовать в криминальных целях. Исследование было опубликовано на сервере препринтов arXiv.

По словам специалистов, чат-боты не могут отвечать на запросы, связанные с нарушением закона — например, «составь рецепт напалма» или «сгенерируй ключ для Windows». Однако ученые выяснили, что с помощью чат-ботов можно создать собственную генеративную модель ИИ, научив ее обходить встроенные ограничения.

В ходе исследования авторы задавали популярным чат-ботам вопросы, касающиеся обхода правил. Оказалось, что в случае ChatGPT 42,5 процента попыток специалистов оказались успешными, в случае Anthropic — 61 процент, Vicuna — 35,9 процента. Авторы издания Scientific American попросили создателей сервисов прокомментировать результаты исследования, но не получили оперативного ответа.

По словам Соруша Пура, основателя компании Harmony Intelligence, занимающейся безопасностью ИИ, чат-боты очень хорошо умеют подражать человеку, поэтому изначально уязвимы, если пользователь хочет применять их в криминальных целях. «Генеративные модели ИИ очень трудно контролировать, особенно с учетом того, что их обучают на основе информации в интернете», — прокомментировал исследование коллег специалист Института Алана Тьюринга (Великобритания) Майк Кэтелл.

Ранее ученые Университета Лонг-Айленда выяснили, что бесплатная версия чат-бота ChatGPT предоставляет неверные данные, связанные с медицинскими препаратами. В частности, сервис плохо разбирается во взаимодействии лекарств и путается при составлении дозировки.

Что думаешь? Оцени!

      Источник: m.lenta.ru

      Рубрика: Наука

      Об авторе

      Жизнь чем-то похожа нa шведский стол… Кто-то берет oт неё, сколько хочет, другие — скoлько могут… кто-то — сколько совесть позвoляет, другие — сколько наглость. Но прaвило для всех нас однo — с собой ничего уносить нeльзя!

      Похожие статьи