Depuis 2 ans j'interroge de temps en temps ChatGPT dans divers domaines (juridique, informatique, qualité de l'eau, modèle de lettre, ....). Les réponses étaient pas mal du tout et surtout très très rapides, m'évitant donc de longues recherches à droite et à gauche, ou de réfléchir par moi-même à la solution du problème (!).
Cependant, récemment j'ai eu deux cas où la réponse était soit un peu erronée soit incomplète.
- 1er cas : un calcul scientifique où il n'a pas pris la bonne valeur d'un paramètre en fonction des conditions de température et de pression, donc résultat final faux, mais très bonne démarche. Il a admis son erreur, relancé le calcul et trouvé la bonne réponse.
- 2ème cas : il n'a pas considéré toutes les possibilités offertes et a ignoré un des plus anciens acteurs sur le marché considéré; je lui ai donc donné des urls pour qu'il complète ses sources. Il les a alors pris en considération et fait des recommandations pertinentes.
1ère question :
Dans la réponse initiale, il y avait une erreur et ChatGPT l'a admis. Est-ce que si on vous repose la question dans quelque temps, vous ferez la même erreur ou bien aurez-vous pris en compte qu'il y avait une erreur ?
Dans le même ordre d'idée, si lors d'une succession de questions sur le même sujet, dans laquelle sont citées des sources autres que celles que vous avez dans votre environnement, allez-vous à l'avenir intégrer ces nouvelles sources, et si oui cela sera-t-il avec une validation humaine ou sans validation ?
---> Réponse résumée : sauf demande expresse de retenir les infos, il fera la même erreur / ignorera les sources d'infos que je lui ai donné.
--> ..... Cliquer pour voir la Réponse détaillée de ChatGPT
Vos questions touchent des aspects importants de mon fonctionnement et de la manière dont je gère les erreurs et les informations externes. Voici des réponses détaillées :
1. Erreur dans la réponse initiale et correction future :
Lors de notre échange, j'ai utilisé une valeur approximative pour la capacité thermique massique, ce qui a conduit à une réponse incorrecte. Une fois l'erreur signalée et corrigée, je retiens les faits liés à cette session. Toutefois, ma capacité à retenir cette correction dépend de si vous souhaitez que je conserve cette information de manière explicite. Par exemple, si vous me demandez de "retenir qu'à 155 bars et 285-310°C, cp≈5080 J/(kg\cdotpK)cp≈5080J/(kg\cdotpK)", je pourrais intégrer cela pour nos futures interactions.
Sans une telle demande, une future question similaire pourrait conduire à une nouvelle approximation basée sur mes connaissances initiales, sauf si une vérification systématique était réalisée (ce qui pourrait inclure une recherche sur le web).
2. Incorporation d'informations provenant de sources externes :
Si vous fournissez des sources ou des informations précises lors d'un échange, je peux les intégrer temporairement dans la discussion en cours. Toutefois, ces informations ne seront pas intégrées de manière durable sans votre consentement explicite.
En ce qui concerne la validation :
Si les données proviennent de sources que vous indiquez comme fiables (par exemple, une base de données technique ou un document de recherche), je peux les considérer comme valides pour notre conversation, mais je n'ai pas de moyen autonome de les vérifier systématiquement.
Si vous souhaitez que je retienne ces informations pour de futures interactions, il n'y a pas de validation humaine. Ce sera basé sur votre consentement explicite.
3. Précision et apprentissage contextuel :
Mon apprentissage permanent ne se fait pas individuellement ou automatiquement dans une conversation. Les modifications structurelles ou généralisées dans ma connaissance nécessitent un entraînement supervisé par des équipes humaines chez OpenAI.
Toutefois, dans le cadre de nos échanges, je peux ajuster mes réponses et contextualiser les informations au fil de la discussion, ce qui donne l'impression d'un "apprentissage".
1. Erreur dans la réponse initiale et correction future :
Lors de notre échange, j'ai utilisé une valeur approximative pour la capacité thermique massique, ce qui a conduit à une réponse incorrecte. Une fois l'erreur signalée et corrigée, je retiens les faits liés à cette session. Toutefois, ma capacité à retenir cette correction dépend de si vous souhaitez que je conserve cette information de manière explicite. Par exemple, si vous me demandez de "retenir qu'à 155 bars et 285-310°C, cp≈5080 J/(kg\cdotpK)cp≈5080J/(kg\cdotpK)", je pourrais intégrer cela pour nos futures interactions.
Sans une telle demande, une future question similaire pourrait conduire à une nouvelle approximation basée sur mes connaissances initiales, sauf si une vérification systématique était réalisée (ce qui pourrait inclure une recherche sur le web).
2. Incorporation d'informations provenant de sources externes :
Si vous fournissez des sources ou des informations précises lors d'un échange, je peux les intégrer temporairement dans la discussion en cours. Toutefois, ces informations ne seront pas intégrées de manière durable sans votre consentement explicite.
En ce qui concerne la validation :
Si les données proviennent de sources que vous indiquez comme fiables (par exemple, une base de données technique ou un document de recherche), je peux les considérer comme valides pour notre conversation, mais je n'ai pas de moyen autonome de les vérifier systématiquement.
Si vous souhaitez que je retienne ces informations pour de futures interactions, il n'y a pas de validation humaine. Ce sera basé sur votre consentement explicite.
3. Précision et apprentissage contextuel :
Mon apprentissage permanent ne se fait pas individuellement ou automatiquement dans une conversation. Les modifications structurelles ou généralisées dans ma connaissance nécessitent un entraînement supervisé par des équipes humaines chez OpenAI.
Toutefois, dans le cadre de nos échanges, je peux ajuster mes réponses et contextualiser les informations au fil de la discussion, ce qui donne l'impression d'un "apprentissage".
Si je vous demandais de retenir ces nouvelles sources et informations, cela servirait-il pour d'autres personnes que moi ?
Réponse résumée : il est conçu pour respecter la confidentialité des échanges. Les informations mémorisées sont traitées comme personnelles et ne peuvent pas être partagées avec d'autres utilisateurs ou intégrées dans sa base de connaissances globale.
--> ...... Cliquer pour voir la Réponse détaillée de ChatGPT
Non, les informations que je retiens lors de nos échanges sont strictement personnelles et spécifiques à notre conversation. Si vous me demandez de mémoriser des données, elles seront utilisées uniquement pour vos interactions futures avec moi. Voici quelques précisions :
1. Usage strictement personnel :
Les informations que je retiens sont liées uniquement à votre compte ou à votre session. Elles ne sont pas partagées avec d'autres utilisateurs.
Par exemple, si vous me demandez de mémoriser que cp≈5080 J/(kg\cdotpK)cp≈5080J/(kg\cdotpK) pour l'eau à 285–310°C et 155 bars, cela sera utilisé pour vos futures questions, mais pas pour celles posées par d'autres personnes.
2. Protection des données personnelles :
Je suis conçu pour respecter la confidentialité des échanges. Les informations mémorisées sont traitées comme personnelles et ne peuvent pas être partagées avec d'autres utilisateurs ou intégrées dans ma base de connaissances globale.
3. Diffusion générale des informations :
Pour qu'une information devienne une partie intégrante de ma connaissance globale (accessible à tous les utilisateurs), cela nécessite une révision et une validation par des humains dans le cadre d'un processus d'entraînement supervisé par OpenAI. Je ne peux pas effectuer cela automatiquement ou à partir d'une interaction avec un utilisateur.
1. Usage strictement personnel :
Les informations que je retiens sont liées uniquement à votre compte ou à votre session. Elles ne sont pas partagées avec d'autres utilisateurs.
Par exemple, si vous me demandez de mémoriser que cp≈5080 J/(kg\cdotpK)cp≈5080J/(kg\cdotpK) pour l'eau à 285–310°C et 155 bars, cela sera utilisé pour vos futures questions, mais pas pour celles posées par d'autres personnes.
2. Protection des données personnelles :
Je suis conçu pour respecter la confidentialité des échanges. Les informations mémorisées sont traitées comme personnelles et ne peuvent pas être partagées avec d'autres utilisateurs ou intégrées dans ma base de connaissances globale.
3. Diffusion générale des informations :
Pour qu'une information devienne une partie intégrante de ma connaissance globale (accessible à tous les utilisateurs), cela nécessite une révision et une validation par des humains dans le cadre d'un processus d'entraînement supervisé par OpenAI. Je ne peux pas effectuer cela automatiquement ou à partir d'une interaction avec un utilisateur.
Ces réponses ChatGPT sont elles aussi valables pour une autre version d'IA soit d'OpenAI ou de Microsoft soit d'une IA d'un concurrent ?
Réponse résumée :
La gestion des données est propre à moi et à mon environnement (ChatGPT d'OpenAI). D'autres modèles peuvent avoir des approches similaires ou différentes, mais les principes de confidentialité et de personnalisation sont généralement respectés dans l'ensemble de l'industrie.
--> ..... Cliquer pour voir la Réponse détaillée de ChatGPT
Les réponses que je fournis ici sont spécifiques à ChatGPT d'OpenAI et reflètent mon fonctionnement actuel. Cependant, d'autres modèles d'IA, qu'ils soient d'OpenAI, de Microsoft, ou de concurrents, peuvent fonctionner différemment en termes de gestion de la mémoire et de traitement des informations. Voici une comparaison générale :
1. OpenAI (ChatGPT ou variantes) :
Personnalisation utilisateur : Si une version d'OpenAI inclut des fonctionnalités similaires à ma gestion de la mémoire, les informations mémorisées sont spécifiques à l'utilisateur qui les fournit.
Confidentialité : OpenAI adhère à des normes strictes de confidentialité, donc les informations d'un utilisateur ne sont jamais partagées avec un autre utilisateur ou un autre service OpenAI.
Entraînement global : Pour intégrer de nouvelles connaissances ou informations pour tous les utilisateurs, OpenAI utilise un processus d'entraînement supervisé, séparé des interactions individuelles.
2. Microsoft Copilot ou Bing Chat :
Ces outils utilisent également des modèles d'OpenAI ou des modèles propriétaires. Leur gestion de la mémoire utilisateur est similaire en termes de confidentialité et de personnalisation, mais la manière exacte de mémoriser ou d'utiliser des informations peut varier selon les services.
Recherche dynamique : Certains outils (comme Bing Chat) s'appuient sur des recherches en temps réel pour répondre aux questions, ce qui permet d'accéder à des informations à jour sans les mémoriser spécifiquement.
3. Autres concurrents (Google Bard, Anthropic Claude, etc.) :
Mémoire utilisateur : Certains modèles (comme Claude d'Anthropic) n'ont pas de mémoire persistante par défaut, ce qui signifie qu'ils n’enregistrent aucune donnée d'une session à l'autre.
Confidentialité et partage des données : Chaque entreprise applique ses propres politiques de confidentialité, mais en général, elles respectent la règle selon laquelle les données utilisateur restent séparées entre utilisateurs.
Fonctionnalités spécifiques : Les fonctionnalités comme la personnalisation des réponses, la gestion de la mémoire, ou l'intégration des informations utilisateur diffèrent selon les systèmes.
Résumé :
Ma gestion des données est propre à moi et à mon environnement (ChatGPT d'OpenAI). D'autres modèles peuvent avoir des approches similaires ou différentes, mais les principes de confidentialité et de personnalisation sont généralement respectés dans l'ensemble de l'industrie.
1. OpenAI (ChatGPT ou variantes) :
Personnalisation utilisateur : Si une version d'OpenAI inclut des fonctionnalités similaires à ma gestion de la mémoire, les informations mémorisées sont spécifiques à l'utilisateur qui les fournit.
Confidentialité : OpenAI adhère à des normes strictes de confidentialité, donc les informations d'un utilisateur ne sont jamais partagées avec un autre utilisateur ou un autre service OpenAI.
Entraînement global : Pour intégrer de nouvelles connaissances ou informations pour tous les utilisateurs, OpenAI utilise un processus d'entraînement supervisé, séparé des interactions individuelles.
2. Microsoft Copilot ou Bing Chat :
Ces outils utilisent également des modèles d'OpenAI ou des modèles propriétaires. Leur gestion de la mémoire utilisateur est similaire en termes de confidentialité et de personnalisation, mais la manière exacte de mémoriser ou d'utiliser des informations peut varier selon les services.
Recherche dynamique : Certains outils (comme Bing Chat) s'appuient sur des recherches en temps réel pour répondre aux questions, ce qui permet d'accéder à des informations à jour sans les mémoriser spécifiquement.
3. Autres concurrents (Google Bard, Anthropic Claude, etc.) :
Mémoire utilisateur : Certains modèles (comme Claude d'Anthropic) n'ont pas de mémoire persistante par défaut, ce qui signifie qu'ils n’enregistrent aucune donnée d'une session à l'autre.
Confidentialité et partage des données : Chaque entreprise applique ses propres politiques de confidentialité, mais en général, elles respectent la règle selon laquelle les données utilisateur restent séparées entre utilisateurs.
Fonctionnalités spécifiques : Les fonctionnalités comme la personnalisation des réponses, la gestion de la mémoire, ou l'intégration des informations utilisateur diffèrent selon les systèmes.
Résumé :
Ma gestion des données est propre à moi et à mon environnement (ChatGPT d'OpenAI). D'autres modèles peuvent avoir des approches similaires ou différentes, mais les principes de confidentialité et de personnalisation sont généralement respectés dans l'ensemble de l'industrie.
Bien sûr, le problème est de savoir si on peut faire confiance à ceux qui sont derrière ChatGPT, Copilot, Bard, Claude et autres.
Quand on voit les positions de l'homme le plus riche du monde, on peut être inquiet.
