Oramai possiamo affermare con discreta certezza di vivere all’interno dell’epoca dell’intelligenza artificiale, questa tecnologia sta prendendo pietre in modo sempre più profondo all’interno di ogni campo della vita umana soprattutto quello lavorativo, tantissime aziende dei fatti utilizzano i software di intelligenza artificiale in modi variegati, fenomeno che però non deve non può passare inosservato dal momento che può esporre a una serie di problemi.
A preoccuparsene è stata l’azienda di sicurezza informatica Netskope Threat Labs, all’interno di un report ha infatti sottolineato che il 96% delle aziende utilizza software chatbot IA e il 46% condivide codice sorgente proprietario al loro interno, tutto ciò va in contrasto con il fatto che solo il 25% delle imprese ha adottato misure di sicurezza adeguate per proteggere in dati sensibili che vengono immessi all’interno di queste piattaforme.
L’azienda ha espresso numerosi dubbi in merito a questa tipologia di attività dal momento che presenta numerosi paradossi, in primis quello dei dati regolamentati
che normalmente dovrebbero essere protetti e non immessi appunto all’interno di questa tipologia di software.Ecco quanto esposto all’interno del report: “La protezione della genAI richiede ulteriori investimenti e maggiore attenzione poiché il suo utilizzo permea le aziende, senza segnali di rallentamento nel breve periodo”, ha affermato James Robinson, Chief Information Security Officer, Netskope. Le aziende devono riconoscere che i risultati ottenuti dalla genAI possono inavvertitamente esporre informazioni sensibili, diffondere disinformazione o persino introdurre contenuti malevoli. Richiede un solido approccio alla gestione del rischio per salvaguardare i dati, la reputazione e la continuità aziendale.”
Di conseguenza l’esposizione di questa tipologia di dati mette le varie aziende a rischio di pesanti sanzioni dal momento che si tratta di informazioni confidenziali, un lato positivo però è emerso da questo report che molte realtà stanno proponendo ai propri dipendenti dei coaching in tempo reale per l’utilizzo dell’intelligenza artificiale, in modo da prepararli ad un uso più corretto di quest’ultima.