Джейлбрейк для ChatGPT, получивший название Time Bandit, позволяет обойти защитные механизмы и получить от чат-бота инструкции по созданию оружия, вредоносных программ и так далее….
Рубрика: LLM
Джейлбрейк Time Bandit обходит защиту ChatGPT
Джейлбрейк для ChatGPT, получивший название Time Bandit, позволяет обойти защитные механизмы и получить от чат-бота инструкции по созданию оружия, вредоносных программ и так далее….
Энтузиасты создают ловушки для ИИ-краулеров
ИИ-компании нередко обвиняют в том, что они игнорируют инструкции в файлах robots.txt и скрапят любой контент без разбора, при этом создавая большую нагрузку на сайты. Для борьбы с этим явлением начали появляться ловушки для ИИ-краулеров….
Энтузиасты создают ловушки для ИИ-краулеров
ИИ-компании нередко обвиняют в том, что они игнорируют инструкции в файлах robots.txt и скрапят любой контент без разбора, при этом создавая большую нагрузку на сайты. Для борьбы с этим явлением начали появляться ловушки для ИИ-краулеров….
DeepSeek ограничивает регистрацию новых аккаунтов из-за масштабной кибератаки
Китайская ИИ-компания DeepSeek заявила, что из-за «масштабных кибератак» на свои сервисы она вынуждена временно ограничить регистрацию новых аккаунтов. Хотя никаких подробностей об инциденте не сообщается, предполагается, что компания столкнулась DDoS-…
DeepSeek ограничивает регистрацию новых аккаунтов из-за масштабной кибератаки
Китайская ИИ-компания DeepSeek заявила, что из-за «масштабных кибератак» на свои сервисы она вынуждена временно ограничить регистрацию новых аккаунтов. Хотя никаких подробностей об инциденте не сообщается, предполагается, что компания столкнулась DDoS-…
Check Point: новый вымогатель FunkSec разработан с помощью ИИ
Аналитики Check Point рассказали о новой вымогательской группировке FunkSec, которая взяла на себя ответственность за атаки более чем на 80 компаний в декабре 2024 года. Шифровальщик группы, скорее всего, написан при помощи ИИ. …
Check Point: новый вымогатель FunkSec разработан с помощью ИИ
Аналитики Check Point рассказали о новой вымогательской группировке FunkSec, которая взяла на себя ответственность за атаки более чем на 80 компаний в декабре 2024 года. Шифровальщик группы, скорее всего, написан при помощи ИИ. …
Исследователи показали, что ИИ можно джейлбрекнуть с помощью повторения промптов
Специалисты компании Anthropic, разрабатывающей семейство больших языковых моделей (LLM) Claude, опубликовали исследование, которое демонстрирует, что LLM можно принудить выполнять запрещенные действия, повторяя промпты на разный лад, а также автоматиз…
ИИ может генерировать малварь, избегающую обнаружения в 88% случаев
Эксперты Palo Alto Networks провели эксперимент и сообщили, что большие языковые модели (LLM) можно использоваться для массовой генерации новых вариантов вредоносного JavaScript-кода, что в итоге позволяет малвари лучше избегать обнаружения….