Microsoft: AI kan nooit volledig veilig worden gemaakt
In een preprint-paper, Lessons from red-teaming 100 generative AI products, stellen de 26 auteurs, waaronder Azure-CTO Mark Russinovich, dat “AI-systemen nooit volledig veilig zullen zijn”.
Hoewel dit verontrustend klinkt, benadrukken de onderzoekers dat de kosten voor het aanvallen van AI-systemen verhoogd kunnen worden, zoals bij traditionele IT-beveiligingsmaatregelen door middel van ‘defense-in-depth’ en ‘security-by-design’.
AI-systemen
De paper biedt acht lessen, waarvan de eerste is om “te begrijpen wat het systeem kan en waar het wordt toegepast”. AI-modellen gedragen zich verschillend afhankelijk van hun ontwerp en toepassing, en een goed begrip hiervan is essentieel om effectieve verdediging te implementeren. Grotere modellen, zoals de Phi-3-reeks, blijken beter instructies te volgen, wat nuttig is voor gebruikers, maar ook risicovoller maakt bij kwaadaardige input.
[....]