Molte delle evoluzioni che si stanno susseguendo in materia di intelligenza artificiale, in particolare nell’ambito degli LLM (Large Language Models) e della AI generativa, condividono una direttrice orientata verso la personalizzazione del comportamento dei sistemi.
Gli LLM che sono stati per primi introdotti sul mercato presentavano necessariamente un elevato livello di standardizzazione ed il loro operato poteva essere orientato verso compiti specifici solo tramite prompt, che scontavano tuttavia limiti dimensionali significativi.
Per incrementare il livello di personalizzazione dei sistemi si è quasi subito prevista la possibilità di procedere al loro fine-tuning, una sorta di re-training o training supplementare -che richiede l’impiego di un numero rilevante di dati e che comporta una modifica strutturale del modello di partenza- atto a rendere un particolare modello o istanza del medesimo più esperto rispetto a specifici contenuti.
La personalizzazione ha anche coinvolto le funzionalità dei modelli, cui è stato consentito di accedere a determinati ambienti o ambiti ed operare all’interno di essi; così è stata prevista la possibilità di accedere alla rete internet, consultare determinati motori di ricerca o specifici database, accedere a piattaforme e-commerce e in qualche caso operare su di esse, etc.
Tramite questi ed altri accorgimenti e sviluppi è stato possibile mettere a punto varianti di LLM esperti in determinati ambiti e dotati di specifiche funzioni che consentono loro di rispondere in maniera più efficiente a determinate esigenze o di svolgere determinati compiti.
Nel frattempo sono stati incrementati in maniera pressoché esponenziale i limiti dimensionali dei prompt e più in generale dei parametri che possono essere forniti al modello, per cui oggi è possibile sottoporre agevolmente ad un sistema LLM, magari già dotato di un livello di specializzazione nel senso descritto poco sopra, un corpus documentale o informativo dell’ordine di migliaia di pagine, che il sistema analizzerà ed impiegherà nella sua successiva interazione con l’utente.
Tutto questo è già vero ed attuale oggi: chiunque può personalizzare un LLM dotandolo di specifiche funzionalità e conoscenze, e poi se del caso anche proporlo al pubblico, come dimostra il recente sviluppo di veri e propri marketplace che ospitano varianti personalizzate di LLM standard, ottimizza per svolgere determinati compiti o per operare in particolari ambiti.
Il giurista esperto di proprietà intellettuale può a questo punto interrogarsi sulla possibilità di tutelare questi modelli o agenti personalizzati, ed eventualmente con quale tipo di privativa; altrettanto interessante approfondire il tema della attribuzione degli eventuali diritti, che in linea teorica potrebbero spettare sia a chi ha realizzato il LLM di partenza, sia a chi lo ha personalizzato, creando l’agente. L’esperto di diritto civile tenderà a coordinare le soluzioni messe a punto in tema di attribuzione dei diritti con quelle relative al tema della responsabilità per le attività svolte dall’agente. Il tutto anche alla luce dei rapporti negoziali in essere tra i veri soggetti coinvolti, oltreché delle esigenze di compliance che i legislatori -recentissimamente quello europeo con l’Ai Act- stanno mettendo a punto.
Si tratta di questioni che meritano un approfondimento incompatibile con l’ambito di queste note, che intendono piuttosto soffermarsi sull’ipotesi che agenti AI personalizzati vengano realizzati in ambito aziendale, in particolare da parte di dipendenti e collaboratori, facendo uso, sia in fase di fine tuning che come prompt, di informazioni aziendali, riservate e no.
Attualmente il patrimonio informativo derivante dall’attività di dipendenti e collaboratori di una impresa, di regola costituito da documenti e corrispondenza, per la più parte in formato digitale, rientra nel patrimonio dell’impresa. Si tratta però di un patrimonio informativo “statico”, nel senso che -almeno sino ad oggi- i diritti dell’impresa sui singoli documenti ed elementi di corrispondenza si estrinsecano in un diritto di accesso e di impiego di detti documenti o elementi informativi, destinati di regola a perdere importanza, dal punto di vista pratico, con il passare del tempo rispetto alla loro creazione.
Il trascorrere del tempo incide anche con la possibilità concreta, per il lavoratore o collaboratore, di reimpiegare le informazioni apprese in costanza di rapporto e divenute parte della sua crescita professionale, rispetto alle quali tradizionalmente l’impresa non può vantare alcun diritto (si prescinde qui dall’ipotesi patologica -ma purtroppo frequente- della violazione dei segreti commerciali da parte dell’ex dipendente che ritiene, a torto, di poter riprodurre ed utilizzare informazioni aziendali riservate cui ha avuto accesso o ha contribuito a creare in costanza di rapporto).
L’equilibrio delicato sopra descritto rischia di essere messo in crisi dalla diffusione di sistemi ed agenti AI personalizzati, creati o impiegati da dipendenti e collaboratori dell’impresa facendo uso di informazioni aziendali, riservate e no.
Da un lato colui che ha contribuito all’addestramento dell’agente AI, e che forse gode di un qualche diritto su tale oggetto, può aver interesse a continuare ad impiegare l’agente anche una volta cessato il rapporto con l’impresa, eventualmente continuando a sviluppare l’agente grazie al patrimonio informativo del nuovo datore di lavoro.
Dall’altro lato l’impresa può avere interesse a continuare ad impiegare l’agente AI, che nella migliore delle ipotesi è stato addestrato a svolgere almeno alcune delle mansioni del dipendente o collaboratore, anche successivamente alla conclusione del rapporto, facendo anche leva sul fatto che il training è avvenuto con l’impiego di dati ed informazioni aziendali.
Se poi alcune di tali informazioni possiedono i requisiti per la tutela prevista per i segreti commerciali, su quali l’impresa gode di un diritto esclusivo paragonabile a quelli conferiti dalle tradizionali privative industrialistiche, il tema della titolarità dei diritti sull’agente AI che sia stato addestrato (anche) impiegando tali informazioni, che potrebbe anche rivelare nelle sue interazioni con gli utenti, diviene ancor più delicato.
Ogni risposta ai quesiti sopra tratteggiati è ovviamente prematura; non è tuttavia difficile immaginare che in un futuro prossimo, con la diffusione dell’impiego di agenti AI da parte dei dipendenti e collaboratori delle imprese, si ponga l’esigenza di disciplinare, possibilmente ex ante, quale sorte debbano avere tali agenti, soprattutto al termine del rapporto di lavoro o della collaborazione.
Vista la velocità che connota lo sviluppo di tutto ciò che ha che fare con l’intelligenza artificiale, disciplinare ex ante vuol dire predisporre da subito regole certe, che disciplinino l’impiego dei sistemi AI in ambito aziendale, con particolare riferimento alle attività di personalizzazione dei medesimi, soprattutto quando detta attività comporta l’accesso ai o l’impiego dei dati e delle informazioni aziendali.
In occasione dell’approvazione dellAI Act il lettore potrebbe essere interessato a consultare il seguente articolo: “L’AI Act è stato Approvato: Tutto Quello Che Dovete Sapere”.