Jeżeli byliście na szkoleniu Narzędziownik AI od Tomka Turby, to wiecie jak relatywnie łatwo jest przeprowadzić atak wstrzyknięcia złośliwego promptu (ang. prompt injection), np. na model LLM – ChatGPT. Jeżeli mamy taką możliwość podczas interakcji z LLM’em 1:1, to czy możemy zrobić to samo, j...
Ilość odsłon: 5
źródło: https://sekurak.pl/luka-w-zabezpieczeniach-gemini-pozwala-ukryc-zlosliwe-instrukcje-w-wiadomosci-e-mail/
dodano: 2025-07-18 13:23:03