IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La ville de New York interdit aux étudiants et aux enseignants d'utiliser ChatGPT,
L'intelligence artificielle qui menace les postes des développeurs informatique et inquiète la communauté éducative

Le , par Patrick Ruiz

20PARTAGES

18  0 
Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. D’ailleurs, Microsoft et OpenAI seraient lancés sur une version du moteur de recherche Bing qui l’intègre. ChatGPT serait d’une « intelligence » telle qu’elle terrorise les enseignants de la filière informatique qui redoutent une aggravation de la tricherie dans l’enseignement supérieur. La ville de New York cite désormais des raisons similaires pour décider de son bannissement : interdiction aux étudiants et enseignants d’en faire usage. La décision n’est pas sans susciter de controverse.

« En raison de préoccupations concernant les effets négatifs sur l'apprentissage des élèves, ainsi que la sécurité et l'exactitude du contenu, l'accès à ChatGPT est prohibé sur les réseaux et les appareils des écoles publiques de la ville de New York », déclare un porte-parole du Département de l’éducation de la ville.

La controverse au sujet de cette décision tient au moins sur l’observation évidente que ChatGPT peut faire office de complément à un moteur de recherche. Décider d’en interdire l’accès revient donc à faire pareil avec des plateformes sur lesquels les étudiants sont aussi susceptibles de trouver des réponses à leurs évaluations : Wikipedia, Google, etc.


La contradiction en lien avec la décision de la ville de New York est même susceptible d’enfler si on prend en compte que de tels outils peuvent amener les intervenants de tous bords de la communauté informatique à aiguiser leur créativité. En effet, pour lutter contre le plagiat assisté par IA occasionné par ChatGPT d'OpenAI, un étudiant a proposé une application d'analyse de texte qui détecte s’il a été rédigé par une intelligence artificielle.

Amjad Masad, fondateur de startup de génie logiciel, rapporte qu’il a demandé à ChatGPT de repérer les erreurs dans son code et de produire un rapport détaillé sur les ratés et sur la manière de le corriger. Ce dernier est arrivé à la conclusion que ChatGPT peut faire office de bon compagnon de débogage qui « ne se contente pas d’expliquer le bogue, mais le corrige et explique la correction. » En cela, ChatGPT est susceptible de contribuer à une amélioration de la productivité des intervenants de la filière de tous bords (élèves, enseignants, ingénieurs, etc.)



Le plus grand débat tourne autour de la possibilité de voir les intelligences artificielles rendues au stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu.

Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.

Source : Département de l’éducation de New York

Et vous ?

Quel commentaire faites-vous de cette décision du Département de l’éducation de New York ? Est-ce un exemple à suivre ?
Quels sont selon vous les avantages et les inconvénients d’outils comme ChatGPT rendus au stade actuel de leur évolution pour les différents intervenants de la filière informatique (étudiants, enseignants, ingénieurs, etc.)

Voir aussi :

Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA

Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine

Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %

Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de technick
Membre régulier https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
4  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 06/01/2023 à 15:50
Alors comme ça, ChatGPT est capable de rédiger une dissertation proprement, et Microsoft n'est toujours pas capable d'écrire une doc en plaçant les mots dans un ordre intelligible ?
2  0 
Avatar de eric44000
Membre actif https://www.developpez.com
Le 14/01/2023 à 4:02
Citation Envoyé par Stéphane le calme Voir le message
Comprenez-vous que les scientifiques n'arrivent pas toujours à faire la différence entre les résumés générés par l'IA et les résumés originaux ?
Leur taux d'erreur vous semble acceptable ? Pourquoi ?
La relecture n'est pas exempte de reproche. Bien souvent les articles sont pointus et hyperspécialisée et le relecteur ne peut pas tout vérifier (expérience de labo...). Sans faute grossière il est difficile de traquer le vrai du faux, texte généré ou pas. D'autant que pour celui qui serait tenté par ChatGPT, il les corrigerait de lui-même avant relecture. Le taux d'identification de résumés générés par l'IA de 68% serait alors beaucoup plus faible.

Citation Envoyé par Stéphane le calme Voir le message
Quelles implications possibles si les scientifiques n'y arrivent pas à tous les coups ?
Le scandale. Une fois l'article publiée, tous les chercheurs qui s'intéressent au sujet peuvent confirmer ou infirmer. C'est ce qui s'est passé avec l'étude du Lancet sur l’hydroxychloroquine. Peu de temps a suffit pour que cette revue prestigieuse l'ait retiré.

Citation Envoyé par Stéphane le calme Voir le message
Que pensez-vous des propos d'Arvind Narayanan qui déclare : « Il est peu probable qu'un scientifique sérieux utilise ChatGPT pour générer des résumés », précisant que le fait que les résumés générés puissent être détectés ou non n'est « pas pertinent » puisque « La question est de savoir si l'outil peut générer un résumé précis et convaincant. Ce n'est pas possible, et donc l'avantage d'utiliser ChatGPT est minuscule, et l'inconvénient est important » ?
En effet, le chercheur a tout a perdre. D'abord parce qu'il n'a besoin de rien d'autre que du résultat de ses recherches. S'il envoie un article qu'il ne maitrise du bout des doigt, il peut s'y glisser une erreur (fatale pour sa réputation). Sur le site de ChatGPT, il est écrit à chaque utilisation que le système peut parfois générer des informations incorrectes ou trompeuses. Avertissement pour l'utilisateur moyen, simple évidence pour un chercheur en IA.
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 21/01/2023 à 20:26
Mais qu'est-ce que ça peut me faire qu'un résumé soit généré par une IA ? Le résumé est ce qu'on lit pour déterminer si ça vaut le coup de lire l'article complet. Le jugement et ensuite fait sur l'article complet, et non le résumé. Ceux qui s'arrêtent au résumé ne font pas leur travail correctement et ceux qui se plaignent de ne pas pouvoir faire la différence ne font qu'avouer leur incompétence à juger l'article.

Si on n'arrive pas à faire la différence, c'est que l'outil a joué son rôle et fait donc de bons résumés. Les scientifiques peuvent se concentrer sur le contenu de l'article lui-même et leurs erreurs de frappes ou de raisonnements.
2  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 24/01/2023 à 13:02
Citation Envoyé par marsupial Voir le message
Ils sont en retard et Sparrow ne sait pas coder apparemment.
Ils ne sont pas en retard. C'est Google Brain qui a inventé les transformers en 2017.
Transformers qui sont la base de GPT et de ces technologies de chatbots.

C'est aussi eux qui ont inventé les itérations suivantes des transformers, plus efficaces ou moins énergivore.

OpenAI n'inventent pas. OpenAI font du "cool washing" et du buzz, et n'ont d'open que leur nom.
Ils ont sorti ChatGPT au détriment de tous les problèmes de sécurités présents dans le modèle, et font de la désinformation quand aux capacités de leur modèle qui je cite:
May occasionally generate incorrect information
Ce qui est totalement faux dans les faits. C'est un modèle d'auto complétion de texte qui ne comprend pas ce qu'il raconte.
Ce n'est pas fait pour générer des choses vrai ou fausses, et pourtant ils vendent ça comme un modèle plutôt fiable.

Trained to decline inappropriate requests
N'importe qui qui a essayé plus de 5 minutes le bot à réussi a contourner cette "sécurité".

Google préfèrent probablement rester prudents un minimum avant de déployer leur modèle au public, car contrairement à OpenAI ils ont une image de marque à entretenir.
Y a qu'a voir ce qui c'était passé quand Microsoft avaient déployés Tay sur les réseaux sociaux

En tout cas ça me rassure un peu qu'ils considèrent un minimum les notions de sécurité en IA, en tout cas plus qu'OpenAI.
Car j'ai l'impression que tout le monde s'en fout complètement, et encore plus le public qui ne voit que les avancées positives de l'IA, et fait la pub d'OpenAI gratuitement sans essayer de comprendre la technologie.
2  0 
Avatar de Prox_13
Membre actif https://www.developpez.com
Le 25/01/2023 à 16:32
Citation Envoyé par AoCannaille Voir le message
Intéressant, et effectivement intriguant si c'est vrai. Source?
Ce sont des Kenyans qui ont été employés par OpenAI. Je te laisse te faire ton propre avis, cherche sur Google "OpenAI Kenyan".

Je t'avoue que je trouvais ça complètement loufoque moi-même.
2  0 
Avatar de calvaire
Membre expert https://www.developpez.com
Le 30/01/2023 à 10:06
bonne chance aux entreprises qui feront leurs code avec chatgpt.

1) Même si le code compile, chatgpt sort pleins d'erreurs grossière.
2) Ce code va t'il répondre au vrai besoin du client et au cahier des charges ? c'est très difficile pour le client d'exprimer clairement ce qu'il veut.
3) le pire de tous, l'intégration. même si le code marche, il faut l'intégrer à aws/au parc d'ordinateur des salariés/a l'appareil embarqué...etc.

Va falloir la faire évoluer très vite cette ia, car hélas pour elle, les frameworks et langages évolue vite, les clouds provider change régulièrement leurs api. Ca base de connaissance qui est stackoverflow fera du code obsolète.

Si demain cette ia remplace tous les dev, y'aura plus personne pour l'alimenter sur stackoverflow donc elle deviendra inutile car fera du code obsolète très vite.

C'est le vrai problème de ces ia, elles prennent du contenue sur le net (illégalement ?) crée par des humains. Si demain elles remplacent les humains ben elles ne pourront plus évoluer.
Le jour ou la majorité des devs et des artistes mettrons une licence interdisant l'utilisation de leurs création dans le cadre d'un entrainement d'ia, c'est la fin de chatgpt.

De ce que j'ai vu jusqu'à présent, chatgpt est surtout un gros futur flop.
C'est impressionnant comment il est capable d'animer des conversations mais il est incapable de remplacer un métier humain, des qu'on le titille un peu il fait n'importe quoi.
Une entreprise ne risquerait pas son business avec ce genre d'outil absolument pas fiable.

Pour l'heure je ne vois pas dans quel métier il apporterait une valeur ajouté, même en tant que chatbot il ne sera pas plus pertinent que les algo utilisé actuellement car la BDD qui alimente le chatbot sera toujours aussi pauvre.

Enfin derrière Chatgpt il y'a surtout une tonne d'indonésien/indiens/pakistanais ou que sais je qu'openai a bien exploité pour nettoyer les données d'entrée.
Que sont ils devenues ?

Je ne comprends pas pourquoi chatgpt inquiète autant google, quand on fait une recherche on veut une réponse fiable, donc avoir plusieurs qui donne la même réponse. chatgpt ne fait que donner une réponse sans source ni preuve le tout de façon très sur d'elle.
4  2 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 30/01/2023 à 11:03
Pour ce que j'en connais, dans les domaines critiques, on ne pisse pas de code. Même pour le site web. En général, cela vient d'une profonde réflexion qui ne se fait pas sur le web. Donc l'IA ne peut pas reproduire. Et depuis Snowden, un homme avertit en vaut deux.
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 30/01/2023 à 11:04
Citation Envoyé par HaryRoseAndMac Voir le message
Je t'ai déjà répondu à ce sujet, mais, encore une fois : non.
Effectivement, tu radotes Papi, vu que je ne suis pas intervenu entre tes deux réponses à exactement le même message

Citation Envoyé par HaryRoseAndMac Voir le message
Ce n'est pas comme ça que fonctionne un modèle de langage, il réponds avec des probas, des occurrences, de la variance/co-variance/...

Donc non, il ne réponds pas, par rapport à du "texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions", il émet bel et bien du texte sur un instant T, qui est le résultat du meilleur taux statistiques selon les poids des mots et de ce qu'il a compris de l'ensemble de l'argument + des connaissances qu'il a été chercher.
Si tu veux, ta façon de présenter la chose est plus technique que ma simplification, mais le fond est le même : ChatGPT ne comprend rien à ce qu'il lit ni à ce qu'il génère, ne sait pas ce qui est pertinent ou ne l'est pas.

Le fait que ses réponses semblent pertinentes est corrélé à la qualité des sources, pas du tout à l'algorithme.

Donc, dans un cadre d'entrainement lié à une extraction massive de données sans filtres sur internet, la qualité des sources est donc très variables sur les sujets et donc la pertinence perçue également.
4  2 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 08/01/2023 à 1:42
Citation Envoyé par Stéphane le calme Voir le message
Code Java : Sélectionner tout
1
2
3
4
5
6
7
8
9
10
// 1a
public int getScore()
{
*
// Check if this is a bonus game
if (isBonus()) {
// If it is, triple the final score
score = 3;
 
}
OK. Alors au-dessus, on avait score=1 (par exemple, ça ne marche pas avec 0,5 ou 2).

Qu'est-ce qu'on avait un peu plus haut ?
Code : Sélectionner tout
1
2
 
int score = 0;
Oups, raté.

Tripler 0, ça fait 0.

Ou alors 0 pointé, enfin ça c'est une autre affaire ...
1  0