Forrester logo
Ivalua
Ivalua - Banner

Perché non dovresti ignorare l’orchestrazione nel tuo approccio all’Intelligenza Artificiale Generativa


By 

  |  

  |  

Le discussioni sull'IA generativa si concentrano in genere sui Large Language Models (LLM) o sui casi d'uso a cui vengono applicati. Ciò è comprensibile, poiché sono i rapidi progressi degli LLM che hanno reso l'IA generativa in grado di automatizzare così tante attività e di fornirci intuizioni significative.

Sono anche ciò che la maggior parte di noi ha sperimentato per la prima volta nella propria vita personale, digitando richieste in Chat GPT o LLM alternativi, per creare contenuti o fare ricerche su qualche argomento. Gli LLM sono il motore della promessa dell'IA generativa.

Ma quando si parla di uso aziendale, gli LLM da soli non sono sufficienti, proprio come un motore automobilistico non porta da nessuna parte senza gli altri componenti dell'auto. In un ambiente aziendale, sono necessarie applicazioni a cui gli utenti possano accedere per applicare l'IA generativa alle loro esigenze aziendali.

Servono anche dati, specifici per la funzione, che possano essere utilizzati insieme alle informazioni presenti su Internet per fornire risultati pertinenti dalle LLM. Nel settore degli approvvigionamenti, ciò include dati interni come fornitori o acquisti, e documenti come contratti o questionari.

È necessario qualcosa che colleghi il tutto e faccia in modo che le parti funzionino in modo ottimale. È proprio questo che fa l'orchestrazione. È il collante di un'architettura di IA generativa aziendale. Eppure se ne parla raramente e si capisce poco.

Le funzioni chiave dell’orchestrazione sono:

Elaborazione delle richieste

Alcune richieste saranno concise e mirate, ma altre, soprattutto per i casi d'uso più complessi, saranno lunghe e con vari elementi. A volte questi possono essere troppo lunghi o contorti perché un LLM possa elaborarli correttamente. Altre volte si ottiene una risposta migliore ponendo diverse domande e mettendo insieme le risposte dell'LLM. Un'orchestrazione efficace valuta i prompt e decide se devono essere suddivisi e a quale LLM indirizzarli per ottenere il risultato migliore. Man mano che i casi d'uso diventano più avanzati e gli LLM diventano più specializzati, con punti di forza e di debolezza relativi, questo aspetto diventerà rapidamente ancora più importante.

Prelievo di informazioni rilevanti

A seconda del caso d'uso, potrebbe essere necessario alimentare il LLM con informazioni provenienti da sistemi interni da combinare con quelle disponibili sul web. Ad esempio, un caso d'uso che individua nuovi fornitori che soddisfano determinati criteri minimi da invitare a un evento di sourcing dovrebbe considerare i fornitori con cui si sta già lavorando prima di ricercare nuove opzioni online. I livelli di orchestrazione possono accedere alle informazioni pertinenti e includerle nelle query finali inviate ai LLM.

Controllo della qualità

Errori e allucinazioni (risposte che sembrano realistiche ma che sono state fabbricate) sono una preoccupazione legittima quando si usa l'intelligenza artificiale generativa. Un'orchestrazione avanzata può mitigare questo rischio controllando le risposte prima di restituirle agli utenti.

Considerate queste e altre funzioni, le capacità di orchestrazione giocano un ruolo fondamentale nel determinare la qualità dell'output e i casi d'uso che possono essere implementati. Poiché la maggior parte delle applicazioni sfrutta LLM di terze parti ampiamente disponibili, come Chat GPT, le maggiori differenze di valore potenziale sono spesso determinate dalle capacità del livello di orchestrazione. Per questo motivo, è un elemento critico da valutare quando si selezionano soluzioni di IA generativa per un'azienda.

Le capacità chiave da valutare includono:

Dati. L’orchestrazione è in grado di accedere a tutte le informazioni rilevanti e di elaborarle per creare le interrogazioni ai LLM?

Elaborazione dei prompt. I prompt sono realizzati e suddivisi in modo ottimale prima di essere inviati agli LLM? I prompt vengono indirizzati all’LLM ottimale per uno specifico tipo di richiesta? È possibile sfruttare più di un LLM? I clienti possono specificare i LLM da utilizzare in base alle politiche interne?

Controllo di qualità. Quali capacità garantiscono risposte accurate? I clienti possono definire livelli di fiducia per casi d’uso specifici in base alla sensibilità? Le risposte vengono controllate per verificarne l’accuratezza, ad esempio sollecitando gli LLM in modi diversi per controllare la coerenza delle risposte? Le fonti esterne sono elencate con link in modo che gli utenti possano verificare le risposte, se lo desiderano?

Conclusione

Il livello di orchestrazione è un elemento cruciale di qualsiasi architettura di IA generativa aziendale, in quanto migliora la qualità e amplia la gamma di casi d'uso possibili. Come tale, non deve essere trascurato nella scelta delle soluzioni tecnologiche. Valutando i criteri di cui sopra, i leader aumenteranno notevolmente le probabilità di realizzare la promessa dell'IA generativa per le loro organizzazioni.

Per saperne di più su questo e sugli altri fattori chiave di successo dell’IA generativa nel procurement, scarica la nostra guida.

Ulteriori letture

Accelerare l’adozione dell’intelligenza artificiale generativa negli acquisti

Trasformare gli acquisti con l’IA generativa: un approccio pratico

L’IA generativa e il futuro degli acquisti: Una sintesi

L’intelligenza artificiale negli appalti: La guida definitiva per i professionisti degli acquisti

Alex Saric

Chief Marketing Officer

Alex ha dedicato 15 anni della sua carriera alla promozione della gestione delle spese, plasmandone l'evoluzione e lavorando a stretto contatto con centinaia di clienti per supportare il loro percorso verso la trasformazione digitale. Come CMO di Ivalua, Alex gestisce la strategia generale di marketing e i programmi thought leadership. Alex ha anche lavorato per 12 anni presso Ariba, prima costruendo e mettendo in atto le operazioni di analitica delle spese come direttore operativo. In seguito, è stato direttore del team marketing internazionale di Ariba fino alla proficua acquisizione da parte di SAP, quando è passato a dirigere il network marketing dell'azienda a livello globale. In precedenza, Alex è stato uno dei soci fondatori di Zeborg (acquisita da Emptoris) in cui si è occupato dello sviluppo di applicazioni di acquisti verticali. Ha iniziato la sua carriera nella cavalleria americana, dove ha guidato plotoni di scout e carri armati durante 2 dispiegamenti militari. Alex ha conseguito un BS in economia presso l'Accademia militare degli Stati Uniti di West Point e un MBA internazionale presso INSEAD. Puoi collegarti con Alex su Linkedin

Pronto a sfruttare al meglio le tue possibilità?