ChatGPT peut être dangereux, admet OpenAI

CHRONIQUE L’entreprise américaine vient d’évaluer les risques de son agent conversationnel. Le plus important d’entre eux? L’anthropomorphismeChatGPT comporte des risques, il peut avoir une influence négative sur ses utilisateurs et tout cela doit être étudié de près. Ce n’est pas une ONG ou une autorité de régulation qui le dit, mais OpenAI elle-même, l’entreprise développant l’agent conversationnel. La société dirigée par Sam Altman a publié le 8 août un long document intitulé «GPT-4o System Card», que l’on pourrait traduire par une analyse de risques du modèle le plus avancé de ChatGPT.L’entreprise a évalué son modèle sous quatre angles: la cybersécurité, les menaces biologiques, la persuasion et l’autonomie de ce modèle, soit sa propre capacité à effectuer des actions nuisibles. Résultat global: les risques sont jugés «faibles» pour trois domaines, mais «moyens» pour la persuasion. OpenAI note en effet des dangers liés à l’anthropomorphisme, consistant à attribuer des traits humains à ChatGPT. «Ce risque peut être accru par les capacités audio de GPT-4o, qui facilitent des interactions plus humaines avec le modèle», note la société. GPT-4o est en cours de déploiement.Voir plus

ChatGPT peut être dangereux, admet OpenAI

CHRONIQUE L’entreprise américaine vient d’évaluer les risques de son agent conversationnel. Le plus important d’entre eux? L’anthropomorphisme

ChatGPT comporte des risques, il peut avoir une influence négative sur ses utilisateurs et tout cela doit être étudié de près. Ce n’est pas une ONG ou une autorité de régulation qui le dit, mais OpenAI elle-même, l’entreprise développant l’agent conversationnel. La société dirigée par Sam Altman a publié le 8 août un long document intitulé «GPT-4o System Card», que l’on pourrait traduire par une analyse de risques du modèle le plus avancé de ChatGPT.

L’entreprise a évalué son modèle sous quatre angles: la cybersécurité, les menaces biologiques, la persuasion et l’autonomie de ce modèle, soit sa propre capacité à effectuer des actions nuisibles. Résultat global: les risques sont jugés «faibles» pour trois domaines, mais «moyens» pour la persuasion. OpenAI note en effet des dangers liés à l’anthropomorphisme, consistant à attribuer des traits humains à ChatGPT. «Ce risque peut être accru par les capacités audio de GPT-4o, qui facilitent des interactions plus humaines avec le modèle», note la société. GPT-4o est en cours de déploiement.Voir plus