banner
Casa / Notizia / Modelli linguistici di grandi dimensioni come avvocati fiscali: questo documento sull'intelligenza artificiale esplora le capacità LLM nell'applicazione del diritto fiscale
Notizia

Modelli linguistici di grandi dimensioni come avvocati fiscali: questo documento sull'intelligenza artificiale esplora le capacità LLM nell'applicazione del diritto fiscale

Feb 05, 2024Feb 05, 2024

Si stanno facendo progressi nell’intelligenza artificiale. I Large Language Models (LLM) sono i luoghi in cui si stanno verificando rapidi progressi. I LLM moderni possono utilizzare strumenti, pianificare e superare valutazioni standardizzate. Ma anche per i suoi creatori, gli LLM sono semplicemente scatole misteriose. Non sanno molto di come pensano dentro e non possono prevedere come si comporterebbe un LLM in una nuova situazione. Prima che i modelli vengano utilizzati al di fuori del contesto di ricerca, è buona pratica valutare le prestazioni LLM su un lungo elenco di parametri di riferimento. Tuttavia, questi parametri di riferimento devono spesso riflettere attività del mondo reale che sono importanti per noi o che potrebbero essere state memorizzate dal LLM durante la formazione. I dati richiesti per la valutazione delle prestazioni sono comunemente inclusi nei set di dati utilizzati per la formazione dei LLM, che vengono spesso scaricati da Internet.

La sovrapposizione può sovrastimare le prestazioni del modello, creando l'impressione di comprensione quando potrebbe trattarsi solo di semplice riconoscimento. Essi concentrano i loro sforzi di valutazione soprattutto sulle capacità analitiche giuridiche dei LLM per tre ragioni. In primo luogo, determinare il livello di comprensione della legge da parte dei LLM può aiutare con una regolamentazione più generale dei LLM e dei sistemi automatizzati. Una strategia rilevante dal punto di vista politico è quella di utilizzare il ragionamento legale e normativo negli LLM per una “AI informata sulla legge” che si allinei con gli ideali sociali stabiliti attraverso procedure democratiche e processi legislativi. Questa strategia “Law Informs Code” si basa sulla capacità dimostrata del processo democratico di produrre norme legali flessibili come obblighi fiduciari attraverso deliberazioni e contenziosi iterativi. L’idea è che insegnare ai sistemi di intelligenza artificiale lo spirito della legge può aiutarli a prendere decisioni difendibili in situazioni non familiari. Quando un sistema basato su LLM supporta un principio umano, questa capacità precoce di rilevare quando le responsabilità fiduciarie vengono violate potrebbe consentire implementazioni di intelligenza artificiale più sicure. In secondo luogo, tramite il self-service o un avvocato qualificato, i LLM possono essere utilizzati come strumenti dalle persone per fornire servizi legali in modo più rapido ed efficace. I modelli potrebbero essere più affidabili e preziosi se comprendono meglio la legge. Gli LLM possono aiutare in varie attività, dalla previsione dei casi all'analisi dei contratti, democratizzando così l'accesso all'assistenza legale e riducendo i costi e la complessità per le persone che altrimenti potrebbero avere difficoltà a comprendere il sistema legale.

Data la natura delicata del lavoro legale, alcune tutele dovrebbero essere implementate man mano che questi modelli vengono implementati. Ciò comporta il miglioramento della privacy dei dati, la riduzione dei pregiudizi, il mantenimento della responsabilità per le scelte di questi modelli e la valutazione dell'applicabilità degli LLM per un particolare caso d'uso. Sono quindi necessarie valutazioni sistematiche. In terzo luogo, se gli LLM hanno una conoscenza giuridica sufficiente, possono essere utilizzati dal governo, dalle persone e dagli studiosi per individuare contraddizioni legali. Gli LLM possono migliorare l’efficacia complessiva e l’apertura dei governi. Ad esempio, gli LLM spesso possono spiegare regole e regolamenti complicati in modo chiaro e comprensibile.

In futuro, gli LLM possono prevedere i probabili effetti di nuove leggi o politiche. Gli LLM potrebbero identificare leggi o situazioni potenzialmente “obsolete” in cui la legge tace quando, in altri casi comparabili, il legislatore o i regolatori forniscono indicazioni esaminando enormi quantità di linguaggio giuridico e relative implementazioni. In questa ricerca, ricercatori della Stanford University, dell'Università del Michigan, dell'Università di Washington, dell'Università della California del Sud, della Northwestern Pritzker School of Law e SimPPL indagano sulla creazione di LLM con recupero aumentato utilizzando il testo del Codice degli Stati Uniti (una raccolta di leggi federali ) e il Codice dei regolamenti federali (CFR) degli Stati Uniti. Valutano lo sviluppo della comprensione del diritto fiscale da parte di un gruppo di LLM. Hanno deciso sulla legge fiscale per quattro fattori.

L'autorità legale nel diritto tributario è contenuta principalmente in due fonti: i regolamenti del Tesoro ai sensi del CFR e il titolo 26 del codice statunitense (comunemente noto come Internal Revenue Code). Ciò contrasta con diverse aree giuridiche in cui le dottrine sono distillate da molteplici precedenti. Ciò ci consente di integrare il recupero del LLM utilizzando un universo predefinito di documenti possibilmente pertinenti. In secondo luogo, molte leggi fiscali consentono risposte conclusive alle domande. Ciò ci consente di creare flussi di lavoro di convalida automatici coerenti. In terzo luogo, affrontare questioni di diritto tributario per un caso specifico richiede in genere qualcosa di più della semplice lettura dell’autorità legale pertinente; quindi, possono valutare le competenze LLM in un modo che si applica alla pratica del mondo reale.