Intelligenza artificiale, il vero valore per le aziende è “umano”

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Prestito personale

Delibera veloce

 


L’intelligenza artificiale ha percorso un lungo cammino dall’intuizione teorica degli anni ’40 fino alla rivoluzione applicativa odierna. Mentre molte aziende si limitano a implementazioni superficiali o all’automazione di singoli processi (AI washing), il vero valore strategico dell’IA emerge solo quando viene integrata profondamente nei processi aziendali e combinata con l’intelligenza umana.

Questa sinergia rappresenta la chiave per trasformare l’IA da semplice commodity a reale motore d’innovazione e vantaggio competitivo nell’era della quarta rivoluzione industriale.

Intelligenza artificiale: origini e sviluppo

Nonostante l’intelligenza artificiale si sia rivelata al mondo, per così dire, solo nell’ultimo periodo, i primi passi li ha mossi ben ottant’anni fa, nel 1943, con il paper accademico A logical calculus of the ideas immanent in nervous activity, scritto a quattro mani dal neurofisiologo ed esperto in cibernetica Warren S. McCulloch e dall’allora giovanissimo matematico Walter Pitt.

Carta di credito con fido

Procedura celere

 

L’apprendimento autonomo di un sistema di neuroni artificiali che essi teorizzarono rimase tuttavia un modello, mancando la quantità di dati e il potere computazionale sufficienti a metterlo in pratica. Si trattava di un sistema “evoluzionista”, capace di riscrivere sé stesso sulla base dei dati assorbiti, esattamente nel modo in cui funziona un cervello umano.

il test di turing e la nascita del termine “intelligenza artificiale”

«Can machine think?» si chiedeva in un articolo apparso nel 1950 sulla rivista “Mind” il matematico Alan Turing, che aveva ideato un test per verificare l’intelligenza e l’”umanità” delle macchine nella conversazione. Test che pare solo di recente superato, secondo Cameron R. Jones e Benjamin K. Bergen che lo attestano nello studio People cannot distinguish GPT-4 from a human in a Turing test, pubblicato nel 2024.

La definizione “intelligenza artificiale” fu coniata di lì a poco, nel 1956, anno in cui si svolse la storica conferenza di Dartmouth, voluta dall’informatico John McCarthy, che l’anno successivo fondò il Laboratorio di Intelligenza Artificiale del MIT. Ed è del 1958 il Mrk I perceptron, «il cervello elettronico che insegna a sé stesso», come ebbe a scrivere il “New York Times” in occasione della sua presentazione. Creato dallo psicologo-ingegnere Mark Rosenblatt e finanziato dalla Marina militare statunitense, se al tempo si rivelò sostanzialmente un insuccesso ­­– fu in grado solo di distinguere una scheda perforata sulla destra da una perforata sulla sinistra ­– oggi è considerato il vero apripista dei più recenti successi dell’intelligenza artificiale.

Modelli di intelligenza artificiale: evoluzionista vs simbolico

Il sistema antagonista al modello “evoluzionista”, detto propriamente “simbolico” e sostenuto con forza in quegli anni e anche nel periodo immediatamente successivo da gran parte del mondo scientifico, prevedeva invece che la macchina venisse pedissequamente “indottrinata” dall’uomo con tutte le istruzioni necessarie a finalizzare il compito assegnato.

È il caso, a tutti noto, del sistema adottato per il calcolatore IBM Deep Blue, che si confrontò con il campione di scacchi Garry Kasparov, il quale risultò vincitore in un primo torneo nel 1996 (per 4 a 2), mentre fu battuto in quello del 1997 dalla stessa macchina ma aggiornata. Un esito che tuttavia suscitò polemiche e sospetti di aiuti umani da remoto.

Il calcolatore IBM Deep Blue e l’inverno delle intelligenze artificiali

In realtà Deep Blue fa la sua comparsa dopo più di un ventennio di “inverno delle intelligenze artificiali”, un periodo di riduzione degli investimenti nel settore e di conseguente rallentamento nella ricerca ­– essenzialmente a causa dei risultati deludenti rispetto alle promesse di entrambi i modelli ­– che vide la fine solo nel primo decennio del Duemila. È da quel momento che l’intelligenza artificiale ha cominciato a essere la vera protagonista del cambiamento del mondo in cui viviamo.

Il punto di svolta: il 2012 e il sistema AlexNet

Potremmo assumere il 2012 come la data spartiacque. Nel settembre di quell’anno il sistema AlexNet, sviluppato all’Università di Toronto, dotato di una rilevante potenza di calcolo e di un dataset di immense dimensioni, straccia gli avversari all’ImageNet Challenge, un contest annuale di riconoscimento immagini, dimostrando un’accuratezza tale da lasciare meravigliati tuti gli addetti ai lavori. Non si tratta di un successo casuale: il britannico Geoffrey Hinton, uno degli scienziati che l’ha progettato, aveva condotto studi sullo sviluppo del machine learning fin dagli anni Ottanta, collegandosi alle ricerche di un altro studioso che da sempre aveva sostenuto la linea dell’idea “evoluzionistica” su quella simbolica, il francese Yann LeCun. Due pionieri della rete neurale dell’intelligenza artificiale, invero già abbozzata da Rosenblatt relativamente alla capacità della macchina di apprendere dai propri errori, che furono costretti ad agire per lungo tempo sottotraccia a causa dell’ostilità di gran parte del mondo accademico ma alla fine riconosciuti tra i padri dell’intelligenza artificiale.

Il moderno sviluppo applicativo e la cosiddetta “intelligenza artificiale generativa”

Oggi che il centro dello sviluppo dell’intelligenza artificiale non si trova più nei laboratori delle accademie ma in quelli della Silicon Valley, questa tecnologia ha subìto un’accelerazione all’ennesima potenza, in particolare nell’ultimo lustro. L’attuale e più diffusa categorizzazione distingue questa tecnologia in tre livelli:

Finanziamenti e agevolazioni

Agricoltura

 

  • ANI (Artificial Narrow Intelligence o intelligenza artificiale ristretta),
  • AGI (Artificial General Intelligence o intelligenza artificiale generale) e
  • ASI (Artificial Super Intelligence o superintelligenza artificiale).

Gli ultimi due tipi, che si intendono, semplificando, pari e superiore alle funzionalità intelligenza umana, sono per il momento solo obiettivi teorici, anche se la ricerca ne sta già facendo oggetto di esplorazione. Le attuali piattaforme e applicazioni di intelligenza artificiale, destinate sia all’ambito industriale sia a quello domestico, sono quindi riconducibili al primo livello (ANI).

Le sei classi di soluzioni di AI

In base all’utilizzo, l’Osservatorio di Artificial Intelligence del Politecnico di Milano ha individuato sei classi di soluzioni di AI, che nella più parte dei casi ricorrono alle potenzialità della cosiddetta “AI generativa” e del deep learning (branca del machine learning, è l’apprendimento profondo su enormi set di dati, non supervisionato dall’intervento umano):

  • Virtual Assistant/Chatbot (come BERT e Gemini – ex Bard – di Google, ChatGPT di OpenAI, Copilot AI di Microsoft, Claude di Anthropic, Pi di Inflection, Mistral AI o Llama di Meta, utilizzati per esempio per i contact center, il customer care aziendale o per funzioni domestiche);
  • Natural Language Processing (modelli di elaborazione del linguaggio naturale umano, finalizzati alla comprensione di contenuti, traduzioni, produzioni di testo, gestione di dati non strutturati ecc. e sfruttati per esempio dai chatbot, per la domotica, lo smart search – RankBrain di Google ­–, il marketing);
  • Computer Vision (soluzioni finalizzate all’analisi di immagini o video, utilizzate per esempio nell’ambito della videosorveglianza o anche per la generazione stessa di immagini o video, mediante software come DALL-E di OpenAI, Midjourney o Canva);
  • Intelligent Data Processing (per l’analisi di dati specifici con l’obiettivo, per esempio, del rilevamento di frodi o le analisi predittive);
  • Recommendation System (essenzialmente teso a indirizzare le scelte degli utenti e quindi il customer journey);
  • Soluzioni fisiche (di supporto ai veicoli a guida autonoma, agli oggetti intelligenti e ai robot per l’automazione dei processi produttivi, logistici o commerciali).

Democratizzazione e mercificazione dell’intelligenza artificiale

La diffusione di una quantità di piattaforme dedicate e di applicazioni di AI cosiddetta “generativa”, molte delle quali gratuite, se da un lato è un vantaggio generale in quanto a democratizzazione, dall’altro rischia di saturare il mercato e appiattire l’utilizzo di questa tecnologia.

Dal punto di vista aziendale e industriale, il ricorso indifferenziato alle funzionalità dell’AI con il semplice obiettivo di aumentare l’efficienza, la velocità e la precisione di determinati processi conduce all’azzeramento di qualsiasi vantaggio competitivo, che invece s’impernia su unicità e differenziazione. Forse l’intelligenza artificiale sta andando incontro allo stesso destino di mercificazione dell’IT, così come descritto da Nicholas G. Carr nel suo The big switch: rewiring the Word from Edison to Google nel 2008? In quel saggio Carr parla di un IT sempre più performante, ma ubiquo, pervasivo e perciò stesso meno importante strategicamente, proprio come era accaduto un secolo prima per l’energia con l’avvento della rete elettrica.

Integrazione dell’intelligenza artificiale nei processi aziendali

In effetti, sono sempre più numerose le voci che affermano che, per ottenere un vero valore aggiunto, si debba superare la logica del grezzo utilizzo “automatico” e puntare invece a uno sfruttamento mirato delle funzionalità dell’AI integrandola nei processi di impresa e facendone così il motore di trasformazioni profonde e business innovativi. In una parola, il pensiero – e l’auspicio – generale è che l’AI si vada trasformando in una commodity, cioè che non abbia più rilievo in quanto tale ma come materia prima abilitatrice di idee d’avanguardia.

Si può dire la stessa cosa anche in un altro modo. Come accaduto per le trasformazioni industriali ed economiche correlate a vapore, elettricità e tecnologie dell’informazione e della comunicazione per le prime tre rivoluzioni industriali, affinché si avvii la quarta, l’intelligenza artificiale dovrà evolversi dall’essere una GPT (general-porpuse technology) all’essere l’invenzione di metodi di invenzione con aumento non compartimentato della crescita, ma dell’economia aggregata. Ciò tuttavia richiede del tempo, per quanto di certo non si tratterà di attendere decenni come per le GPT del passato.

Integrazione: la parola chiave per l’intelligenza artificiale

Pensare all’intelligenza artificiale non come puro strumento ma come motore delle trasformazioni e dei rimodellamenti delle modalità con cui un’azienda o una qualsiasi altra organizzazione opera e compete, significa avere obiettivi chiari e una visione strategica. In altre parole, non è sufficiente implementare l’intelligenza artificiale in modo generico, perlopiù automatizzando le singole attività o addirittura solo imperniando un chatbot su preesistenti software operativi non AI con dubbi o ingannevoli risultati (AI washing), ma sono gli interi processi a dover essere ristrutturati.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

È una sfida che implica rinnovamenti nell’assetto aziendale, maggiorate capacità e accuratezza nella raccolta di dati, apertura alla sperimentazione, focus sulle esigenze da soddisfare nonché cultura, competenza e collaborazione tra i team dedicati e formazione di massima di tutto il personale. In tutto ciò, integrare è il concetto chiave: integrare l’AI con altre tecnologie (tradizionali e digitali) e, soprattutto, integrare l’AI con l’intelligenza umana. Poco senso ha, in questa prospettiva, estremizzare la definizione dell’AI come elemento di creazione oppure come elemento di assistenza.

Costi e implementazione dell’intelligenza artificiale

Certo, il processo di implementazione dell’AI non è semplice, in particolar modo per le aziende o le organizzazioni già diversamente strutturate (diverso il discorso per le start-up), e ha dei costi non indifferenti tra ricerca, studi di fattibilità, sviluppo di un nuovo modello, hardware, infrastruttura e formazione del personale.

In questo risultano avvantaggiate le grosse organizzazioni e la grande industria, tant’è vero che, relativamente all’Italia, il report 2024 sui dati dell’anno precedente dell’Osservatorio di Artificial Intelligence del Politecnico di Milano attesta che il 90% del mercato dell’Intelligenza Artificiale in Italia fa capo alle grandi imprese, mentre il resto è suddiviso in modo equilibrato tra PMI e Pubblica Amministrazione. Il 61% delle grandi imprese ha all’attivo, almeno al livello di sperimentazione, un progetto di Intelligenza Artificiale, mentre si scende al 18% tra le piccole e medie imprese. In quanto a spesa media in Intelligenza Artificiale per azienda, ai primi posti si trovano Telco-Media e Assicurazioni, seguiti da Energy, Resource & Utility e Banche e Finanza.

Il ruolo fondamentale dell’intelligenza artificiale nelle idee aziendali

«I manager e gli imprenditori dovrebbero riconoscere il ruolo fondamentale dell’IA nel dare forma alle idee aziendali, con gli investitori che favoriscono le iniziative integrate con l’IA con l’obiettivo di innovazione e scalabilità» ha affermato Amrit Jassal, direttore tecnico e co-fondatore di Egnyte, in un intervento su “Forbes” (Articolo Forbes). La strada è segnata, il rischio concreto è rimanere indietro.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Carta di credito con fido

Procedura celere

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link