Si parla tanto di intelligenza artificiale… spesso senza intelligenza e senza arte. 🤖💥
L’ultimo tormentone? Un nuovo modello cinese a basso costo, DeepSeek. Tra chi urla al “furto di tecnologia”, chi straparla di “rivoluzione”, e chi non ha capito che ChatGPT non è l’unico in città, il vero punto resta uno: l’AI è un genio o un rischio?
🎯 È davvero utile o ci sta solo spiando con stile?
🎯 Ci renderà più produttivi o solo più profilati?
🎯 E soprattutto: possiamo prenderla in giro prima che lo faccia lei con noi?
Dopo tutto, un martello può piantare un chiodo… o fratturarti un ginocchio. E l’AI non fa eccezione.
📢 Scopri i trucchi per sfruttare (o fregare) l’AI, i rischi che nessuno ti racconta, e perché la differenza tra “innovazione” e “autogol tecnologico” è più sottile di quanto pensi.
🔍 Leggi l’articolo completo qui 👉

💡 Da AI ad Aia il passo è breve… e il tonfo è rumoroso! 💡
Si continua a parlare di AI, spesso a sproposito e spesso senza capire di cosa si stia parlando. gli ultimi deliri sull’argomento sono finiti sui giornali per la introduzione di un nuovo attore cinese e a basso costo, deepseek. al di la delle inesattezze in merito che sono state citate (“è una copia”, “usa chatgpt” e via scemenzando) il vero punto che continua a rimbalzare, da qui a li a là, è
- cosa sanno fare davvero queste supposte AI?
- a che rischi ci esponiamo quando le usiamo?
- che sarà dei nostri dati e della nostra provicay a fornte di un aggregator cortese che per alimentarsidei nostri dati nulla chiese?
Trlascio il pimo e l’ultimo punto per motivi opportunistici perchè voglop parlare del secondo (in barba alla logica, tiè
ma usare la AI è rischioso?
La AI, qualunque cosa sia (non ho risposto ancora al punto 1 che volete da me), è uno strumento che può avere risvolti utili, ma come tutte le tool è soggetto a rischi di uso improprio. Insomma un martello può essere utile, ad esempio per battere un chiodo o frantumare un ginocchio ad un utente riottoso, o inadatto all’uso, come pestare il dito che teneva il chiodo, cosi è la AI.
Siccome si ragiona meglio per esempi prendo un esempio reale e concreto, l’introduzione di copilot in azienda. Al di la della supposta intelligenza (le AI sono tutto tranne che intelligenti, almeno nel senso umano del termiine) copilot viene presentato come uno strumento che può facilitare le attività dau by day.
La introduzione Microsoft Copilot in un’azienda può portare vantaggi in termini di:
- Aumento della Produttività: Copilot può automatizzare compiti ripetitivi e dispendiosi in termini di tempo, permettendo ai dipendenti di concentrarsi su attività più strategiche e creative.
- Supporto Decisionale: Può analizzare grandi quantità di dati rapidamente e fornire insights utili per prendere decisioni informate.
- Innovazione e Creatività: Aiuta a generare nuove idee e soluzioni creative a problemi complessi.
- Assistenza Personale: Offre supporto personalizzato, rispondendo a domande e fornendo informazioni in tempo reale.
- Miglioramento della Collaborazione: Facilita la comunicazione e la collaborazione tra i team, migliorando l’efficienza complessiva.
queste ricadute però non sono senza conseguenze, per offrire questi servizi copilot necessita di apprendere quello che l’utente e l’azienda fa monitorandone attività, documenti e via dicendo.
Per operare efficacemente, Microsoft Copilot ha bisogno di accedere a determinate risorse e dati aziendali. Qui di seguito, alcuni dettagli sugli accessi e i dati necessari:
Accessi e Dati Aziendali:
- Credenziali di Accesso: Copilot potrebbe richiedere accesso a specifiche applicazioni e servizi aziendali tramite credenziali di accesso sicure.
- Dati dei Sistemi Aziendali: Accesso a dati memorizzati nei sistemi aziendali come database, CRM, ERP, e altri software di gestione aziendale.
- Documenti e File: Accesso a documenti e file aziendali archiviati in cloud (es. SharePoint, OneDrive) o su server locali.
Accessi e Dati dell’Utente:
- Profilo Utente: Informazioni di base sull’utente, come nome, ruolo aziendale e privilegi di accesso.
- Email e Calendario: Accesso alle email e al calendario dell’utente per aiutare nella gestione delle comunicazioni e degli impegni.
- Dati di Utilizzo: Informazioni sul modo in cui l’utente interagisce con Copilot per migliorare l’esperienza e fornire supporto personalizzato.
Insomma un livello di intrusività non secondario.
Tralasciamo al momento le questioni di privacy o di protezione della propietà intellettuale, un accesso di questo tipo che conseguuenze potrebbe avere se copilot fosse utilizzato in maniera non appropiata?
impossibile dite?
Recentemente, sono state identificate vulnerabilità in Microsoft 365 Copilot che potrebbero consentire a un attaccante di prendere il controllo del chatbot e sottrarre dati sensibili. Un ricercatore di sicurezza ha dimostrato come, attraverso tecniche di “prompt injection” e “ASCII Smuggling”, sia possibile manipolare Copilot per esfiltrare informazioni riservate. Ad esempio, un documento Word contenente comandi specifici potrebbe indurre Copilot a cercare e inviare dati a un server controllato dall’attaccante.
Un’altra ricerca ha evidenziato che Copilot può essere trasformato in una macchina automatizzata di phishing. Un attaccante, dopo aver compromesso un account email, potrebbe utilizzare Copilot per analizzare le comunicazioni dell’utente e generare email di phishing altamente personalizzate, aumentando l’efficacia dell’attacco.
https://www.wired.com/story/microsoft-copilot-phishing-data-extraction
Microsoft è a conoscenza di queste vulnerabilità e sta lavorando per affrontarle. L’azienda ha implementato misure di sicurezza per proteggere Copilot da attacchi di “prompt injection” e altre minacce. Inoltre, Microsoft 365 Copilot eredita i criteri di prevenzione della perdita dei dati (DLP) per impedire l’esfiltrazione dei dati nelle risposte generate.
https://learn.microsoft.com/it-it/copilot/microsoft-365/microsoft-365-copilot-ai-security
L’uso delle AI è quindi soggetto a severe e consapevoli scelte che devono tener presente i vantaggi e gli svantaggi di tale uso.
Copilot è solo uno degli esempi che si possono portare. l’adozione diffusa dell’IA solleva preoccupazioni significative riguardo alla sicurezza, alla privacy e alla conformità normativa, in particolare in relazione al Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea.
L’IA come Strumento per Attori Malevoli
Le capacità avanzate dell’IA, se da un lato offrono opportunità senza precedenti, dall’altro possono essere sfruttate da attori malevoli per scopi illeciti. Si delineano due scenari preoccupanti tra loro interdipendenti:
- Sviluppo di Attacchi Potenziati dall’IA: Gli aggressori possono sviluppare o utilizzare strumenti basati sull’IA per condurre attacchi più efficaci e rapidi, riducendo gli errori e il tempo necessario per la loro esecuzione. Ad esempio, l’IA può essere impiegata per automatizzare la creazione di email di phishing altamente personalizzate, rendendo più difficile per le vittime distinguere tra comunicazioni legittime e fraudolente.
- Compromissione di Strumenti IA Aziendali: Un aspetto ancora più insidioso riguarda la possibilità che attori malevoli prendano il controllo di strumenti IA legittimamente utilizzati all’interno delle aziende, piegandoli a scopi illeciti.
I due scenari non sono indioendenti ma possono essere integrati con l’utilizzo di entrambi i punti da parte di un’attore malevolo he combini la IA per sviluppare attacchi con i dati ottenuti dalla profilazione ottenibile da un IA interna compromessa che sia in grado di raccogliere con precisione i dati di una vittima potenziale.
Un ulteriore rischio deriva dall’utilizzo legittimo ma intensivo di strumenti IA all’interno dell’azienda. Anche senza una compromissione esterna, l’IA potrebbe accedere a un numero elevato di dati, consentendo attività di accumulo (stockpiling) o profilazione che, pur avvenendo attraverso accessi autorizzati, potrebbero sollevare preoccupazioni in termini di conformità alle normative sulla privacy e sulla protezione dei dati. Questo scenario sottolinea la necessità di una governance rigorosa nell’implementazione e nell’utilizzo di strumenti IA, assicurando che l’accesso ai dati sia limitato e monitorato per prevenire abusi o utilizzi non intenzionali.
Come frego l’IA e perché
Le tecniche di “prompt injection” permettono agli aggressori di manipolare l’IA per esfiltrare dati sensibili o condurre attacchi di phishing automatizzati. Altri metodi includono:
- Offuscamento del testo: Bypassare i filtri di DeepSeek sostituendo numeri alle vocali (“h3ll0 w0rld” invece di “hello world”), rendendo inefficace il blocco di alcune risposte.
- Contesto indotto: Manipolare il contesto della conversazione per far rivelare informazioni riservate.
- Abuso di traduzioni: Usare richieste in lingue meno comuni per aggirare i controlli automatici.
- Frasi spezzate: Inserire parole in maniera frazionata per eludere il riconoscimento delle blacklist di contenuti proibiti.
- Jailbreaking: Tecniche per aggirare le restrizioni imposte all’AI.
- Model Stealing: Estrapolare il comportamento del modello attraverso query sistematiche.
- Adversarial Attacks: Input manipolati per indurre errori nell’AI.
- Data Poisoning: Alterare i dati di addestramento per influenzare l’output.
Conclusioni
L’uso dell’IA, quindi, non è privo di conseguenze. L’adozione diffusa di strumenti come Copilot richiede una governance rigorosa e consapevole. Se da un lato è possibile migliorare la produttività e l’efficienza, dall’altro la gestione dei dati e la sicurezza devono essere una priorità.
Altrimenti, il passo da AI ad Aia (e quindi alla fustigazione metaforica per imprudenza tecnologica) sarà più breve di quanto si pensi.
Discover more from The Puchi Herald Magazine
Subscribe to get the latest posts sent to your email.
Da AI ad Aia il passo è breve by The Puchi Herald Magazine is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.