sabato, Dicembre 6, 2025
Inviaci la tua notizia
No Result
View All Result
Ultimenews24.it
Advertisement
  • Home
  • Attualità
  • Economia e Finanza
  • Cultura e Società
  • Salute e Benessere
  • Sport
  • Scienza e Innovazione
  • Curiosità
  • Home
  • Attualità
  • Economia e Finanza
  • Cultura e Società
  • Salute e Benessere
  • Sport
  • Scienza e Innovazione
  • Curiosità
No Result
View All Result
Ultimenews24.it
No Result
View All Result
Home Curiosità

Leadership Forum 2025: AI, etica, crescita sostenibile e innovazione con oltre 4000 partecipanti dell’evento

Da Redazione Ultimenews24.it
27 Ottobre 2025
In Curiosità
0
Leadership Forum 2025: AI, etica, crescita sostenibile e innovazione con oltre 4000 partecipanti dell’evento
0
Condivisioni
3
Visualizzazioni
Condividi su FacebookCondividi su Twitter

(Adnkronos) – Il Teatro degli Arcimboldi di Milano ha ospitato oltre 1.800 tra CEO, top manager e imprenditori, affiancati da più di 2.300 partecipanti collegati in diretta streaming, per un totale di oltre 4.000 presenze. Il tema centrale, Leader Sapiens, ha guidato la discussione attraverso argomenti cruciali per la leadership contemporanea: dall'intelligenza artificiale all'etica, dall'intelligenza emotiva e connettiva alla crescita sostenibile e all'innovazione continua. Il Forum si è confermato una piattaforma per strategie lungimiranti e vision innovative, presentate da 13 speaker di rilievo internazionale. La due giorni ha visto un susseguirsi di interventi che hanno delineato i contorni della leadership del futuro. Figure come Howard Yu, stratega dell’innovazione, hanno sottolineato la necessità per le aziende di "sperimentare e di trasformarsi continuamente per restare competitivi in un mondo in continua evoluzione". La seconda giornata, particolarmente attesa, ha riportato sul palco Daniel Goleman, padre dell’intelligenza emotiva, che ha dibattuto sulla leadership del futuro insieme a due esperti mondiali come Nello Cristianini professore di Intelligenza Artificiale e Benedetta Giovanola, titolare della prima Cattedra europea di Etica dell’Intelligenza Artificiale finanziata dall’Unione Europea. Adnkronos Tech&Games ha avuto l'opportunità di porre qualche domanda a Benedetta Giovanola che ha gentilmente acconsentito a rispondere. 
Lei afferma con forza che l'Intelligenza Artificiale non è mai neutrale. Se i sistemi di IA sono perlopiù probabilistici e basati sull'enorme quantità di dati che elaborano, come possiamo garantire che il dataset di addestramento non replichi o addirittura amplifichi discriminazioni e bias sociali preesistenti? Qual è la nostra responsabilità etica nel selezionare e "nutrire di dati etici" il mondo digitale?
 
Innanzitutto, assicurandosi che i sistemi di intelligenza artificiale siano etici by design, ovvero che l'equità, quindi la non discriminazione, debba essere un principio fondamentale nella progettazione di stessi sistemi, oltre che nel loro sviluppo e utilizzo.
 
Rispetto poi al tema specifico dei dati, bisogna preoccuparsi che i dati siano rappresentativi, quindi non solo prestare attenzione alla quantità dei dati – è chiaro che i sistemi di intelligenza artificiale hanno bisogno di quantità enormi di dati per fare delle previsioni attendibili – ma anche al fatto che siano qualitativamente rappresentativi, che ad esempio non privilegino certi gruppi o categorie rispetto ad altri.
 
Poi bisogna assicurarsi che i team di progettazione siano a loro volta rappresentativi e quindi non replichino in maniera inconscia una serie di bias, prospettive limitate o addirittura pregiudizi, quindi che siano diversificati in termini di genere, in termini di etnia, background culturale, etc., Inoltre l’impatto dei sistemi di IA sulla nostra vita a livello individuale e collettivo deve essere tenuto ben presente già nell’atto della progettazione, perché si tratta di un impatto pervasivo: bisogna capire tutto questo per progettare bene.
 
Spesso si invoca il bisogno di "pensiero critico" nell'era digitale. Lei utilizza invece il concetto più ampio di "saggezza pratica" come bussola etica. Può spiegarci la differenza tra i due e come questa saggezza pratica, intesa come capacità di giudizio e decisione morale, possa essere coltivata in un contesto in cui la tecnologia ci spinge a "delegare" la nostra capacità di riflettere in maniera autonoma?
 
La saggezza pratica può essere intesa come una competenza da coltivare, quindi non è qualcosa che noi abbiamo già in modo pienamente sviluppato, abbiamo in potenza ma dobbiamo appunto realizzare. Sostanzialmente significare la capacità di esercitare un discernimento morale e un giudizio morale, e quindi essere capaci anche di orientarsi moralmente a seconda del contesto di riferimento, consente di sviluppare un approccio che è contestualista e che è anche piuttosto pragmatico. Ed è questo approccio che, allenato, ci consente di individuare le implicazioni morali, le implicazioni etiche, ad esempio, nella progettazione, nello sviluppo o nell’utilizzo di un determinato sistema di IA.
 
La saggezza pratica ci consente anche di fare un'operazione di foresight analysis, eticamente orientata, per capire quali potrebbero essere i rischi dei sistemi di IA e compiere le scelte migliori a seconda del contesto. La saggezza pratica rappresenta un punto fermo per consentirci di orientarci e guidare (o, come si dice, governare) l’IA in un momento in cui la trasformazione tecnologica è pervasiva ed estremamente veloce.
 
La sua ricerca evidenzia come l'IA stia modificando profondamente le nostre relazioni sociali, affettive e professionali. In che modo gli algoritmi che mediano le interazioni umane (dai social media al dating) stanno ridefinendo il nostro concetto di identità personale e di autenticità?
 
Gli algoritmi basati su IA oggi consentono di raggiungere output che influiscono tantissimo sulla nostra capacità pratica, sul modo in cui noi agiamo, e sulla nostra capacità epistemica, ovvero sul modo in cui abbiamo accesso alla conoscenza; possiamo controllare (o meno) le informazioni, possiamo processarle ed analizzarle. Tutto questo ha un impatto fondamentale rispetto al modo in cui noi percepiamo noi stessi.
 
Faccio un esempio: se noi viviamo in un contesto in cui proliferano prodotti generati dall'intelligenza artificiale generativa e non siamo più in grado di distinguere ciò che è reale e ciò che è generato artificialmente, questo può creare una percezione di noi stessi come incapaci di comprendere il mondo, quindi ci può portare a non fidarci più di quelle che sono le nostre capacità e questo ha un impatto rispetto
 
alla nostra identità e sulla percezione che abbiamo, di noi stessi, come soggetti capaci di comprendere e di agire in modo autonomo.
 
Nel suo lavoro si rivolge in modo specifico al mondo corporate (Etica e intelligenza artificiale per l'impresa). Molti manager vedono l'etica come un freno all'innovazione. Invece, lei la descrive come un "motore di fiducia" e una leva strategica. In pratica, in che modo l'integrazione del purpose aziendale e dei principi etici (Ethics by Design) nel ciclo di vita di un sistema di IA può generare un vantaggio competitivo reale e sostenibile?
 
La generazione del vantaggio competitivo è uno degli aspetti da tenere in considerazione, ma non è sostitutivo dell'orientamento al purpose; quindi, è fondamentale innanzitutto che vengano compiute delle scelte coerenti con la propria essenza, con il proprio "why", il proprio perché, quindi in questo senso l’orientamento al purpose.
 
Poi è importante che queste scelte possano essere coerenti con quelli che sono i valori e gli obiettivi di un’impresa; quindi, sostanzialmente con l'identità dell'impresa stessa. Poi, chiaramente, è anche importante che si traducano in azioni concrete e in obiettivi misurabili e che possano generare un vantaggio competitivo o ritorno sull'investimento.
 
Quindi tenendo insieme queste tre dimensioni si può assicurare che l’etica diventi un driver di buona innovazione tecnologica, perché bisogna credere autenticamente nei valori ed essere coerenti con il proprio purpose. Questo non significa non essere attenti al vantaggio competitivo, al ritorno sugli investimenti, ma la sfida è proprio nel calibrare queste due dimensioni perché se si è solo attenti alla seconda dimensione, si rischia paradossalmente di ottenere il risultato contrario, si fa qualcosa che non è coerente con la propria identità o la propria ragione d'essere.
   

 
Lei ha sottolineato il rischio di un "controllo algoritmico", che potrebbe essere alimentato dall'idea di una tecnologia come fine in sé. Quanto è concreto questo pericolo in Europa, considerando che il modello dominante di sviluppo dell'IA nasce in contesti culturali specifici (spesso statunitensi) con valori e priorità diversi dai nostri? Quali strumenti, oltre alla regolamentazione, possono difendere l'approccio umanocentrico europeo?
 
I sistemi di IA possono facilitare forme di controllo algoritmico, profondamente lesive della privacy e della libertà. Nei contesti d’impresa, poi, ci sono aree di applicazione dell’IA che presentano sicuramente opportunità ma anche rischi rispetto al tema del controllo. Se, ad esempio, l’IA è applicata alla gestione delle risorse umane, può tradursi in forma di management algoritmico, e creare una in cui, paradossalmente, le prestazioni, le performance diminuiscono perché ci si sente controllati e soprattutto si perde il senso del valore del proprio lavoro e quindi si è anche meno motivati a svolgerlo, ci si sente più sviliti. Questi possono essere esiti negativi di una diffusione troppo estensiva, troppo pervasiva di sistemi di intelligenza artificiale, sostitutiva del management umano, che può generare anche la percezione da parte di chi lavora di essere valutato in base a come una macchina lo valuterebbe piuttosto che a come un essere umano lo valuterebbe.
 
Per quanto concerne la regolamentazione, sicuramente questa può arginare certi fenomeni o tendenze. Ad esempio, l’utilizzo dei sistemi di IA in ambito risorse umane è considerato ad “alto rischio” nel Regolamento Europeo sull’IA (AI Act). Chiaramente la scelta relativa a se e come regolamentare non è sostitutiva dello sviluppo delle nostre competenze in quanto users, ad esempio, così come non è sostitutiva di un design etico fin dall'inizio, anche perché la regolamentazione riesce a regolamentare qualcosa i cui effetti negativi sono già stati sperimentati ma non riesce a prevenire, né è bene che lo faccia, tutti i rischi futuri: se tutto fosse regolamentato, noi stessi non saremmo più soggetti autonomi e capaci di scegliere liberamente, ma semplici esecutori.
 
Quindi è fondamentale allenare tantissimo le competenze a partire dalla competenza di saggezza pratica; ed è fondamentale investire tantissimo nei processi di istruzione e di formazione, promuovendo la compresenza di componenti tecnologiche ed etiche, oltre che giuridiche, innanzitutto, perché è chiaro
 
che se si impara a progettare solamente su basi tecnologiche, senza avere, diciamo, contezza di quelle che sono le implicazioni etiche o dell'impatto a livello sociale o in termini di compliance giuridica, il rischio di creare dei sistemi che poi siano lesivi dei diritti o creino discriminazioni è chiaramente maggiore. Quindi bisogna investire tantissimo in formazione e in sviluppo di competenze che ci consentono di anticipare quelle che sono le trasformazioni che ancora noi non possiamo prevedere, e quindi di orientarci.
 
Di fronte all'evoluzione rapidissima delle macchine, si parla spesso della "tentazione di volerci sostituire a Dio". Secondo la sua analisi, che si occupa anche di spiritualità, se l'IA ha la capacità di replicare la coscienza e le logiche duali, cosa rimane intrinsecamente non replicabile dell'essere umano? Il senso di "trascendenza" o la ricerca del senso della vita sono elementi che l'uomo non potrà mai delegare ai sistemi artificiali?
 
Io non mi occupo specificamente di spiritualità. Quello che posso dire è che è molto importante da un lato comprendere come l'intelligenza artificiale ci trasforma, ma dall'altro lato anche capire quali sono le skills e le componenti autenticamente umane per poter promuovere il loro sviluppo e capire come i sistemi di intelligenza artificiale possono supportarci. Credo poi che sia importante invertire la logica, cioè sfuggire a questa logica del paragone e capire invece quali sono le nostre caratteristiche distintive, quali sono le caratteristiche distintive dei sistemi di intelligenza artificiale e come questi ultimi ci trasformano, in modo da delegare a questi sistemi ciò che per noi può essere utile e funzionale.
 
—tecnologiawebinfo@adnkronos.com (Web Info)

Tags: adnkronostecnologia
Post Precedente

Trump: “Putin dovrebbe far finire guerra in Ucraina invece di testare missile nucleare”

Post Successivo

Honor e Byd per la mobilità intelligente con l’IA

Redazione Ultimenews24.it

Redazione Ultimenews24.it

Ultimenews24.it è un quotidiano online dove ti tiene informato sulle ultime notizie su attualità, economia, salute, sport e alto ancora.

Ti potrebbero interessare i seguenti Articoli

IA e rete professionale: le nuove leve strategiche per la competitività delle PMI italiane
Curiosità

IA e rete professionale: le nuove leve strategiche per la competitività delle PMI italiane

Da Redazione Ultimenews24.it
5 Dicembre 2025
Spotify Wrapped Park a Milano: la musica del 2025 diventa esperienza immersiva
Curiosità

Spotify Wrapped Park a Milano: la musica del 2025 diventa esperienza immersiva

Da Redazione Ultimenews24.it
5 Dicembre 2025
Profili rubati su Facebook e Instagram, Meta migliora l’assistenza
Curiosità

Profili rubati su Facebook e Instagram, Meta migliora l’assistenza

Da Redazione Ultimenews24.it
5 Dicembre 2025
L’Europa multa Elon Musk per la spunta blu ingannevole di X
Curiosità

L’Europa multa Elon Musk per la spunta blu ingannevole di X

Da Redazione Ultimenews24.it
5 Dicembre 2025
ai.esra rafforza la leadership per l’espansione in EMEA e la cyber resilience europea
Curiosità

ai.esra rafforza la leadership per l’espansione in EMEA e la cyber resilience europea

Da Redazione Ultimenews24.it
5 Dicembre 2025
E’ il Cloud Dancer il colore del 2026, per l’edge 70 edizione speciale con Swarovski
Curiosità

E’ il Cloud Dancer il colore del 2026, per l’edge 70 edizione speciale con Swarovski

Da Redazione Ultimenews24.it
5 Dicembre 2025
Post Successivo
Honor e Byd per la mobilità intelligente con l’IA

Honor e Byd per la mobilità intelligente con l'IA

Cerca Nel Sito

No Result
View All Result

Pubblicità

Ultimi Articoli

Ballando, Marcella Bella e la dedica al fratello Gianni: “Mi manca sentire la sua voce”

Fiorentina, minacce social a mogli giocatori: “Spero che i vostri figli muoiano di cancro”

Ballando, gaffe Mariotto: “Brava Ferilli”. Ma è Nancy Brilli

Migranti, naufragio al largo di Creta: 17 morti

Superenalotto, numeri e combinazione vincente di oggi 6 dicembre 2025

Vicenza, morta Diana Canevarolo: era stata trovata in una pozza di sangue dal marito

Pubblicità

Direttore responsabile: Marina Nardone

Sede legale: Corso Umberto Maddalena 24 – cap 83030 – Venticano (AV)

Quotidiano online e una testata periodica ai sensi del D.L. 7/5/2001 n. 62

Network

Informazioni

  • Chi Siamo
  • Termini & Condizioni
  • Privacy Policy
  • Cookie Policy

Gestione dei Cookie

Aggiorna le preferenze sui cookie

Contatti

Per parlare con la redazione: redazione@mgeditoriale.it

Per la tua pubblicità: info@mgeditoriale.it

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino

No Result
View All Result
  • Home
  • Attualità
  • Economia e Finanza
  • Cultura e Società
  • Salute e Benessere
  • Sport
  • Scienza e Innovazione
  • Curiosità

© 2025 M.G.Editoriale Di Nardone Marina | P.IVA 02734110642 | C.F. NRDMRN92A47A783Y | ROC 33015 | Iscritta alla Camera di Commercio di Avellino