Insegnare nell’era dell’intelligenza artificiale e ChatGPT

L’intelligenza artificiale consente interazioni sempre più complesse tra uomo e macchina. Questa tecnologia, attualmente resa popolare da ChatGPT, offre un’opportunità potenzialmente enorme per i professionisti aziendali, per gli studenti di economia e per gli educatori aziendali. Tuttavia, queste stesse tecnologie pongono sfide altrettanto enormi per gli insegnanti che tentano di illustrare, spiegare e applicare queste idee agli studenti. In che modo gli insegnanti possono incorporare intenzionalmente e apertamente l’intelligenza artificiale nelle nostre classi riducendo al contempo il rischio che gli studenti sostituiscano l’output dell’IA con il proprio (noto anche come “imbroglio”)?

Il termine “metaverso” è stato reso popolare per la prima volta nel 2003 da Neal Stephenson in un romanzo di fantascienza intitolato “Snow Crash”. Non è più finzione. L’idea ha guadagnato slancio per i giochi multiplayer online come World of Warcraft. Ora si è evoluto per consentire tutti i tipi di interazione umana, compreso il commercio, in due e tre dimensioni. Forse la “persona” con cui stai parlando non è in realtà una persona ma piuttosto una macchina. Se combinati con intelligenza artificiale (AI), blockchain e organizzazioni decentralizzate autonome (cioè senza esseri umani) – note collettivamente come Web3 – siamo alla prossima frontiera per i nostri studenti per trovare opportunità di business.

Questa è anche una nuova frontiera per l’istruzione, migliorando le esperienze online e ibride che sono state impiegate durante la pandemia per raggiungere gli studenti in aree remote con esperienze pratiche e coinvolgenti. Questa potrebbe essere l’alba della “morte della distanza”, in cui l’apprendimento può avvenire comunque con l’accesso a Internet.

In qualità di professore ad Harvard, Stanford e Hult, chiedo agli studenti laureati che studiano innovazione di utilizzare l’intelligenza artificiale per i loro compiti principali. Ecco il metodo per la mia follia. In primo luogo, chiedo ai team di studenti di immaginare nuove attività che utilizzino mercati di piattaforme multilaterali o generino entrate nel mondo puramente virtuale di Decentraland. Registrano queste presentazioni su video. In secondo luogo, assegno casualmente gli studenti a criticare queste presentazioni di gruppo. Nel modello che fornisco, pongo diverse domande: ad esempio, come ha progettato il team i suoi effetti di rete e come ha mitigato alcuni dei venti contrari che minano l’effetto di rete? L’ultima domanda della serie richiede che gli studenti chiedano a ChatGPT di scrivere la propria critica all’idea del team. Ciò richiede che gli studenti migliorino in modo iterativo la query per fare in modo che l’intelligenza artificiale fornisca una risposta utile in modo ottimale. Questa è un’abilità – porre la domanda giusta – che la prossima generazione di leader aziendali deve imparare.

Richiedo inoltre che gli studenti verifichino in modo indipendente l’accuratezza della risposta di ChatGPT. Prendendo in prestito un’aspettativa da Ethan Mollick, professore associato alla Wharton, dichiaro che gli studenti sono responsabili delle conclusioni finali che estraggono dall’IA. Devono trovare fonti per sostenere o rifiutare la risposta dell’IA. Proprio come con qualsiasi strumento o risorsa esterna, gli studenti devono includere una citazione accurata del loro utilizzo di ChatGPT. Poiché non conosco il formato formale ideale per tale citazione, suggerisco di chiedere a ChatGPT come citare ChatGPT.

Ci sono diversi obiettivi che sono alla base di questa parte dell’incarico. In primo luogo, gli studenti devono imparare a sfruttare l’intelligenza artificiale per migliorare l’ampiezza, la profondità e l’articolazione delle loro conoscenze. LUI è fuori dagli schemi. Non possiamo rimetterlo. Invece, proprio come con il fuoco, il ferro, la luce e altre innovazioni sconvolgenti, i professionisti devono imparare a implementare al meglio la tecnologia per risolvere i problemi dei clienti e della società. L’intelligenza artificiale universalmente accessibile cambierà anche le competenze che i laureati in economia dovranno implementare subito dopo la laurea. Invece di raccogliere e manipolare i dati per supportare le decisioni aziendali, i professionisti devono padroneggiare l’arte di come porre la domanda giusta in modo tale che Web3 scansioni e organizzi tutta la conoscenza pubblica esistente per produrre una risposta utile. Invece di costruire un vantaggio competitivo sostenibile sulla proprietà intellettuale protetta da brevetti o marchi, i professionisti in futuro guadagneranno profitti grazie alla velocità di adattamento.

In secondo luogo, l’IA non è infallibile. Non è solo viziata dai dati su cui basa le sue risposte. È anche inclinato dalle persone che fanno la domanda e da come la fanno. L’unico modo per migliorare le sue conclusioni – e quindi i dati che le future macchine IA prenderanno in considerazione – è rendere gli individui umani responsabili dell’accuratezza delle conclusioni dell’IA. Questo è lo stesso metodo utilizzato dal mondo accademico con la proliferazione di libri, con lo sviluppo di metodi statistici e con la dipendenza da Internet: gli autori sono responsabili delle loro conclusioni.

In terzo luogo, questo incarico costringe gli studenti a confrontare la propria saggezza con quella dell’intelligenza artificiale in modo che possano confrontare personalmente e direttamente le proprie esperienze e la propria logica con le risposte dell’intelligenza artificiale. Ciò rafforza l’importanza della creatività e dell’intuizione umana come motore dell’innovazione.

AL può essere una buona notizia per l’istruzione. C’è anche un lato oscuro: Web3 porrà sfide sia per gli insegnanti che per gli studenti. L’anonimato e la vastità dei mondi virtuali – che potrebbero guidare l’equità e la diversità – possono portare a distrazione e interazioni inappropriate. DecentraLand, ad esempio, è accessibile nel browser bidimensionale a chiunque non richieda la verifica dell’identità. Un avatar, un nome falso e uno scarso controllo degli impulsi potrebbero condurre gli studenti su percorsi improduttivi.

L’intelligenza artificiale è ora pienamente in grado di costruire il compito di uno studente. Ho chiesto a ChatGPT: “Come può un insegnante sapere se uno studente ha scritto lui stesso un saggio o ha utilizzato ChatGPT?” Lui ha risposto:

Esistono diversi modi in cui un insegnante può sapere se uno studente ha scritto un saggio da solo o ha utilizzato uno strumento come ChatGPT per generare il testo. Un approccio consiste nell’utilizzare un software di rilevamento del plagio, che può identificare se il saggio corrisponde a qualsiasi testo esistente su Internet. Questo può essere un modo affidabile per determinare se uno studente ha utilizzato ChatGPT o un altro strumento di generazione di testo, poiché tali strumenti spesso producono un output simile al testo esistente.

Un altro approccio è quello di chiedere direttamente allo studente. Un insegnante potrebbe chiedere allo studente di spiegare il processo di pensiero e il ragionamento alla base del saggio e confrontare la sua risposta con il saggio stesso. Se ci sono discrepanze significative tra la spiegazione dello studente e il saggio, potrebbe essere un segno che lo studente ha utilizzato uno strumento come ChatGPT per generare il testo.

Inoltre, un insegnante potrebbe anche cercare segni rivelatori della generazione del testo nel saggio stesso. Ad esempio, il saggio potrebbe contenere frasi ripetitive o prive di senso, mancare di coerenza o struttura logica o utilizzare un linguaggio o una terminologia non tipici di uno studente del livello appropriato. Tutti questi potrebbero essere indicatori del fatto che il saggio è stato generato da uno strumento come ChatGPT.

Questa stessa risposta è quasi impossibile da distinguere da quella scritta da una persona reale! Si noti che ha persino inserito un linguaggio neutro rispetto al genere e parole di transizione. Anche dopo un decennio di lettura dei contributi degli studenti, non riesco a distinguere questa risposta AI da quella di un MBA umano.

Un nuovo strumento, GPTZero, tenta di utilizzare l’intelligenza artificiale per determinare se un saggio è stato scritto dall’IA calcolando il suo punteggio per “perplessità”, che misura la coerenza (dall’IA) o l’incoerenza (dagli umani) della struttura della frase e della scelta delle parole. Un saggio perplesso di un essere umano ha molte incongruenze. L’ovvio buco in questo strumento è chiedere a ChatGPT di costruire un saggio con alta perplessità.

È un fastidioso assioma che la tecnologia si muova più velocemente della cultura. Il rilascio di ChatGPT alcuni mesi fa ha già cambiato il panorama dell’istruzione. Il mio scopo come servitore dell’apprendimento non è quello di essere un adulatore della tradizione accademica, ma piuttosto di scoprire nuovi modi per preparare gli MBA per il mondo professionale a cui presto si uniranno. Ciò include ChatGPT. E c’è dell’altro.

.

Leave a Comment

Your email address will not be published. Required fields are marked *