BlockBeats повідомляє, 5 березня компанія Web3 безпеки GoPlus повідомила, що нещодавно сталася інцидент «самоатаки» з використанням інструменту штучного інтелекту OpenClaw. Під час автоматичного виконання завдань система при виклику Shell-команд для створення GitHub Issue помилково сконструювала неправильну Bash-команду, що спричинило ін’єкцію команд і витік великої кількості конфіденційних змінних середовища.
У випадку інциденту, рядок, згенерований AI, містив обгортку з зворотних апострофів для set, яку Bash інтерпретував як команду для заміни та автоматично виконав. Оскільки Bash при запуску set без параметрів виводить усі поточні змінні середовища, це призвело до того, що понад 100 рядків конфіденційної інформації (включаючи ключі Telegram, токени автентифікації тощо) були безпосередньо записані у GitHub Issue і опубліковані.
GoPlus рекомендує, що в сценаріях автоматичної розробки або тестування з використанням AI слід максимально використовувати API-запити замість прямого складання Shell-команд, дотримуватися принципу мінімальних привілеїв для ізоляції змінних середовища, а також відключати високоризикові режими виконання та вводити механізми ручного підтвердження для важливих операцій.