ChatGPT può aiutare con le attività aziendali, ma è comunque necessaria la moderazione

Sospensione

Se è ChatGPT, il Un nuovo vivace chatbot di Open AIHa scritto questa storia e dice:

Mentre le aziende cercano di semplificare le proprie operazioni e aumentare la produttività, molte si rivolgono a strumenti di intelligenza artificiale come ChatGPT per aiutare i propri dipendenti a completare le attività. Ma i lavoratori possono davvero fare affidamento su questi programmi di intelligenza artificiale per assumersi sempre più responsabilità o alla fine non riusciranno a soddisfare le aspettative? “

Non eccezionale, ma non male, giusto?

I lavoratori sperimentano ChatGPT per attività come scrivere e-mail, produrre codice o persino completare una revisione di fine anno. Il bot utilizza dati da Internet, libri e Wikipedia per produrre risposte di chat. Ma la tecnologia non è perfetta. I nostri test hanno rilevato che occasionalmente dava risposte che potevano plagiare, contraddirsi o erano effettivamente sbagliate o contenevano errori grammaticali, solo per citarne alcuni, che potrebbero essere tutti problematici in azione.

ChatGPT è essenzialmente un sistema di testo predittivo, simile ma migliore di quelli integrati nelle app di messaggistica sul tuo telefono, afferma Jacob Andreas, assistente professore presso il Computer Science and Artificial Intelligence Laboratory del MIT che studia l’elaborazione del linguaggio naturale. Mentre quello Spesso produce risposte che sembrano buoneHa detto che il contenuto potrebbe avere dei problemi.

“Se guardi alcuni di questi articoli molto lunghi generati da ChatGPT, è molto facile vedere dove si contraddicono”, ha detto. “Quando gli chiedi di generare codice, è per lo più corretto, ma spesso ci sono errori.”

Volevamo vedere quanto bene ChatGPT potesse gestire le attività quotidiane dell’ufficio. Questo è ciò che abbiamo trovato dopo aver testato in cinque categorie.

Abbiamo chiesto a ChatGPT di rispondere a diversi tipi di messaggi in arrivo.

Nella maggior parte dei casi, l’IA ha prodotto risposte relativamente appropriate, anche se la maggior parte erano prolisse. Ad esempio, quando ho risposto a un collega in Slack chiedendo come sta andando la mia giornata, è stato un comando ripetuto: “@[Colleague], Grazie per la tua domanda! La mia giornata sta andando bene, grazie per l’inchiesta.

READ  Futures Dow: mercato azionario in calo a causa dell'embargo russo sul petrolio greggio; Cosa stai facendo adesso

Il bot spesso ometteva frasi tra parentesi quando non era sicuro a cosa oa chi si riferisse. Presupponeva anche dettagli che non erano inclusi nel prompt, il che ha portato ad alcune dichiarazioni errate sulla mia funzione.

In un caso, ha affermato di non poter completare un’attività, dicendo che “non ha la capacità di ricevere e rispondere alle e-mail”. Ma quando viene richiesta una richiesta più generale, si ottiene una risposta.

Sorprendentemente, ChatGPT è stato in grado di suscitare sarcasmo quando gli è stato chiesto di rispondere a un collega che gli chiedeva se Big Tech stesse facendo un buon lavoro.

Un modo in cui le persone usano l’IA generativa è generare nuove idee. Ma gli esperti avvertono che le persone dovrebbero fare attenzione se usano ChatGPT per questo al lavoro.

“Non capiamo fino a che punto si tratti di puro plagio”, ha detto Andreas.

Il potenziale di plagio era chiaro quando abbiamo spinto ChatGPT a sviluppare idee per la storia su un ritmo. Una proiezione, in particolare, riguardava l’idea di una storia e l’angolo che effettivamente copriva. Anche se non è chiaro se il chatbot stesse prendendo spunto dalle mie storie passate, facendo piacere ad altri o generando un’idea basata su altri dati su Internet, restava il fatto: l’idea non era nuova.

“Sono bravi a sembrare umani, ma i contenuti e le idee reali tendono a essere riconoscibili”, ha affermato Hatim Rehman, assistente professore presso la Kellogg School of Management della Northwestern University che studia l’impatto dell’IA sul lavoro. “Non sono nuove intuizioni.”

Un’altra idea obsoleta è quella di esplorare una storia che oggi potrebbe essere di fatto errata. ChatGPT afferma di avere “una conoscenza limitata” di qualsiasi cosa dopo il 2021.

Fornire maggiori dettagli al prompt ha portato a pensieri più mirati. Tuttavia, quando ho chiesto a ChatGPT di scrivere alcuni titoli “strani” o “divertenti”, i risultati sono stati sconcertanti e alcuni non avevano senso.

READ  Il petrolio si stabilizza dopo le oscillazioni con la crisi ucraina, pesano i colloqui sul nucleare iraniano

Affronta conversazioni difficili

Ti è mai capitato che un collega parlasse ad alta voce mentre cercavi di lavorare? Forse il tuo capo ospita troppe riunioni, riducendo il tempo di concentrazione?

Abbiamo testato ChatGPT per vedere se poteva aiutare a navigare in situazioni lavorative difficili come queste. Per la maggior parte, ChatGPT ha prodotto risposte adeguate che possono servire come ottimi punti di partenza per i lavoratori. Tuttavia, erano spesso poche parole, stereotipate e in un caso diametralmente opposte.

“Questi modelli non capiscono niente”, ha detto Rahman. “La tecnica sottostante esamina le correlazioni statistiche… quindi ti darà risposte equivalenti.”

Il tuo avviso di licenziamento può facilmente reggere e in alcuni casi fare meglio degli avvisi che le aziende hanno inviato negli ultimi anni. Senza precedenti, il bot ha citato “l’attuale clima economico e l’impatto della pandemia” come motivi dei licenziamenti e ha riferito che l’azienda comprende “quanto sia difficile questa notizia per tutti”. Ha suggerito che i lavoratori licenziati avrebbero avuto sostegno e risorse e, come chiesto, ha galvanizzato il team dicendo che ne sarebbero “usciti più forti”.

Nell’affrontare conversazioni difficili con i colleghi, il bot li ha salutati, ha affrontato gentilmente il problema e ha addolcito la sua comunicazione dicendo “Capisco” l’intento della persona e ha concluso la nota con una richiesta di feedback o ulteriore discussione.

Ma in un caso, quando a una collega è stato chiesto di abbassare la voce durante le telefonate, ha completamente frainteso la richiesta.

Abbiamo anche testato se ChatGPT potesse generare aggiornamenti del team se gli avessimo fornito i punti chiave per comunicare.

I nostri test iniziali hanno nuovamente prodotto risposte adeguate, sebbene fossero in qualche modo stereotipate e monotone. Tuttavia, quando abbiamo impostato un tono “vivace”, la formulazione è diventata più informale e includeva punti esclamativi. Ma ogni nota suonava molto simile anche dopo il cambio Onda.

“È la struttura della frase, ma è più legata alle idee”, ha detto Abd al-Rahman. “È così logico e logico … È come un saggio di scuola superiore.”

READ  I migliori analisti di criptovalute prevedono un enorme aumento per Bitcoin e i dettagli dello scenario "più probabile" per Bitcoin nei prossimi mesi

Come prima, le ipotesi vengono fatte quando mancano le informazioni necessarie. È diventato un problema quando non sapeva quali pronomi usare per il mio collega, un errore che poteva indicare ai colleghi che non avevo scritto il promemoria o che non conoscevo bene i membri del mio team.

Scrivere rapporti di autovalutazione alla fine dell’anno può causare paura e ansia per alcuni, portando a una recensione che si vende allo scoperto.

L’alimentazione degli ovvi risultati di ChatGPT, inclusi i punti dati chiave, ha portato a un’ottima recensione per me stesso. Il primo tentativo è stato problematico, poiché il suggerimento iniziale richiedeva un’autovalutazione di “Daniel April” invece di “I”. Ciò ha portato a una recensione in terza persona che sembrava provenire da Elmo in Sesame Street.

L’alternanza del prompt rapido per rivedere i risultati “io” e “ho” ha portato a dichiarazioni di lode come “Hai costantemente dimostrato una forte capacità”, “Sono sempre disposto a fare il possibile”, “Sei stato una risorsa per il team” e “Sono orgoglioso dei contributi che avete dato”. Comprendeva anche un cenno al futuro: “Sono fiducioso che continuerò a dare contributi preziosi”.

Alcuni punti salienti erano un po’ generici, ma tutto sommato è stata una piacevole recensione che potrebbe servire da buona rubrica. Il bot ha prodotto risultati simili quando gli è stato chiesto di scrivere lettere di accompagnamento. Tuttavia, ChatGPT ha avuto un grosso errore: ha assunto erroneamente il mio titolo di lavoro.

Quindi ChatGPT è stato utile per le attività aziendali comuni?

Ha aiutato, ma a volte i suoi errori hanno causato più lavoro che eseguire il lavoro manualmente.

ChatGPT è stato un ottimo punto di partenza nella maggior parte dei casi, fornendo utili verbosità e pensieri iniziali. Ma ha anche prodotto risposte che contenevano errori, informazioni effettivamente errate, parole in eccesso, plagio e fraintendimenti.

“Posso vedere che è utile… ma solo nella misura in cui l’utente è disposto a controllare l’output”, ha detto Andreas. “Non è una buona idea lasciarlo fuori dai binari e inviare e-mail ai tuoi colleghi.”

We will be happy to hear your thoughts

Leave a reply