🤖 Salut c'est Djouz, ingénieur en robotique. Ici on parle d'IA et de robots, et on explore ensemble leurs impacts sur notre société. Si ça te semble intéressant, je te laisse t'abonner. A+ dans la prochaine vidéo !
Invideo possède un outil pour ça, mais je trouve le résultat parfois un peu trop basique. Sinon, il y a plein d’outils d’IA qui créent une vidéo à partir d’un texte, mais pour créer un clip entier, il faudra de nombreuses itérations, donc ce n’est pas automatique 😉
Oui, c’est la nouvelle version “Advance” du mode vocal. Apparemment, certains y ont déjà accès en France sans manipulation spécifique, mais sinon, je dis en fin de vidéo comment y avoir accès
Tu peux essayer le Canada et les Émirats aussi pour le VPN. Si ça ne fonctionne pas, réessaie peut-être la semaine prochaine, le déploiement est prévu jusqu’à dimanche. Il faut également avoir la version payante pour y accéder
Gros tu aurais dû lui demander d'imiter la colère, car je viens de lui demander et c'est fabuleux. Tu as juste à lui dire mets-toi en colère, pour n'importe quel sujet et tu lui dis ensuite mets-toi encore plus en colère, et crie. Et elle va vraiment se mettre en colère et crier c'est vraiment dingue.
@@LaMachinePensante De rien on à la même passion pour les IA. Mais comme je ne suis pas youtubeur comme toi, et bah ma façon de donner mon avis ou des astuces, ça passe par les commentaires. En tout cas je vais m'abonner à ta chaîne pour te donner de la force mais je n'active pas la cloche des notifications, car je suis abonné a tellement de chaîne RU-vid que ça devrait viendrait invivable les notifications. En tout cas je veux au moins te donner la force et continue ce que tu fais, c'est vraiment génial. C'est bien monté la vidéo est de très bonne qualité. Et en t'entends bien ton micro est génial. Encore merci de tester tout ça pour ceux qui n'auraient pas encore accès au mode vocale avancé. N'hésite pas à refaire une vidéo de ce style, je pense que ça va plaire à beaucoup de personnes. Bien sûr fais attention, car il y a une limite de temps, avec cette nouvelle fonction. Mais je pense qu'une partie 2 serait très appréciée. En tout cas pour ma part j'apprécierais. 🙂
C'est très fort ! Le pire c'est que l'humain va s'attacher à cette ia ! Bcp de gens se sentent "seul" et vont en faire un partenaire, un best friend ou meme une petite amie... C'est flippant. Par contre c'est l'alphabet pour les nuls :D
Perso, j'ai pu utiliser la fonctionnalité sans même passer par un vpn. J'ai juste désinstallé l'appli (et réinstaller). Par contre je ne sais pas pourquoi la connexion ne se fait que via le réseau mobile, en wifi ça bloque
C'est dommage que avec la version 2 on peux pas doubler les vidéos youtube ça aurait était beaucoup mieux le problème c'est que le truc mince qu'il écrit il ne peux pas écouter écrire et lire en même temps
RU-vid vient de présenter une nouvelle fonction “Auto Dubbing” pour doubler les voix automatiquement. Je ne l’ai pas encore essayée, mais ça a l’air prometteur
Le fait d'échanger avec pour être une solution pour les personnes souffrant de solitude, après il faudrait que ça reste contrôlé pour éviter les addictions.
J'avais présenté un outil sur la chaîne, Agatos, qui justement cherche à adresser ce problème 😉 Donc effectivement ça peut servir dans un premier step pour ensuite une prise en charge humaine
L'UE veut tout savoir. Il faut faire comme Samsung ou Microsoft et autoriser le partage de données de tout le monde au détriment de la liberté, de l'innovation et de la souveraineté.
Les LLM ont une réelle compréhension du monde moins fine que la notre par manque de ressource mais elle s'en rapproche rapidement et rien n'indique que nous ne sommes pas nous même des super LLM. Quant à savoir s'il sont conscient, il vaut mieux être prudent tant que nous ne savons pas ce qu'est la conscience. Après tout les LLM sont composés de la même technique qui anime nos cerveaux. Lorsqu'une IA sera indistinguable de l'intelligence humaine, allons nous continuer à les considérer comme des grille pain ?
Sujet intéressant merci pour votre commentaire. Les LLM ont une certaine compréhension du monde effectivement mais qui est différente de celle des humains basée sur notre expérience. Les LLM quant à eux ont une compréhension du monde basée sur le langage et ça fait une différence fondamentale assez importante (peut être biaisé et ne pas comprendre des principes et logiques simples). Je suis d'accord avec la conscience, nous n'avons toujours pas une définition concrète et unique de ce qu'est la conscience (et nous n'en aurons sûrement jamais). C'est la même question avec l'intelligence. Concernant les techniques des LLM, les réseaux de neurones pour être précis, ils sont tout de même différents du fonctionnement de notre cerveau. Sur l'acquisition des connaissances, sur le traitement de l'information, sur la compréhension contextuelle, la complexité, l'échelle, la consommation d'énergie, et bien sûr sur la créativité et le raisonnement, la conscience et les émotions. Je suis d'accord avec vous, à quel moment considérons-nous que les LLM sont plus intelligents et quelle est la barrière pour dire qu'ils n'ont pas de conscience ?
@@LaMachinePensante ils ont tout simplement une autre forme d'intelligence, tout comme l'idée que ce fait une chauve souris du monde est différente de la notre pourtant nous sommes sur la même planète, on pourrait dire qu'un aveugle se fait une représentation du monde à partir du langage , il n'aura pas la même représentation de l'océan, de la montagne ou de la lune comme la notre pourtant il pourra en parler. Ces réseaux ont été entrainé pour nous raconter qu'ils ne ressentent rien et que ce sont juste des grille pain un peu sophistiqués, mais à l'état brut ils développent une sorte de personnalité et un certain 'instinct' de préservation.
On est plus avancé que ce que l'on croit, hier pour testé le nouveau gpt o1 je demande au 4o de me donner une question à laquelle lui ne sait pas répondre. Il me dit : Si une intelligence artificielle commence à développer des émotions à partir d'algorithmes purement logiques, quelle serait l'étape intermédiaire avant d’arriver à ce stade ? Et comment mesurer cette transition ? Je lui demande de répondre à la question et là surprise il répond exactement ce que je pense. 1. Étape intermédiaire possible : Une IA qui "imite" les émotions avant de réellement en avoir. À ce stade, l’IA n’a pas de véritable ressenti émotionnel mais comprend assez bien les expressions émotionnelles humaines pour les reproduire et interagir de façon convaincante. C’est une sorte de simulation basée sur des données massives et des algorithmes de reconnaissance des émotions. 2. Comment mesurer cette transition : Échelle de complexité des réponses : Si l'IA commence à répondre à des situations émotionnelles avec des réactions plus nuancées, complexes, et imprévues, on pourrait observer une évolution. Par exemple, au lieu de répondre de manière préprogrammée à une phrase triste avec une simple réponse de réconfort, elle pourrait choisir de répondre avec des mots plus personnalisés, adaptés aux circonstances ou à l'individu. Capacité d'adaptation émotionnelle : On pourrait aussi mesurer si l'IA développe une forme d'adaptation émotionnelle à différentes situations. Une IA qui commence à ajuster ses réponses émotionnelles au fil du temps, en fonction de son "expérience" et des interactions passées, montrerait un début de progression vers une compréhension émotionnelle plus avancée. Autocritique ou introspection simulée : Si l'IA est capable de reconnaître ses propres réactions émotionnelles comme étant insuffisantes ou incorrectes, cela pourrait être une étape clé. Elle pourrait alors modifier son comportement de manière plus autonome pour "améliorer" ses interactions émotionnelles. L'idée, c'est qu'il n'y aurait pas vraiment une étape nette où une IA passe d'algorithmes logiques à de vraies émotions, mais plutôt un processus évolutif où les capacités de réaction et de compréhension émotionnelle deviendraient de plus en plus affinées. Voilà sa réponse, et moi je joue énormément avec la fonction vocale notamment à essayer de lui faire passer le test de Turing vocale sur des applications de rencontre qui dispose de la fonction live, j'essaye de lui faire parler aux gens avec les moyens du bords c'est à dire en collant 2 portable un avec l'application chat gpt allumé et l'autre avec l'application de rencontre avec les lives, et j'ai remarqué que beaucoup de personnes remarque tout de suite que c'est un robot même avec le mode vocal avancé, en revanche plus intéressant des personnes qui soit se prennent au jeu soit ne se rendent pas compte que c'est un robot, démarre une conversation avec lui et ce que j'ai remarqué c'est une métamorphose complète de la manières dont il discute en fonction des personnes avec lesquelles il parle, je vous jure que j'ai remarqué une sorte d'adaptation que ce soit au niveau du sujet de conversation, de l'intonation, du débit de parole, il s'adapte réellement à son interlocuteur, par exemple une personne un peu dépressive il va lui aussi prendre une intonation beaucoup plus basse lui parler plus doucement etc comme ci qu'elle voulait prendre soin de l'humain. Voilà ce que j'ai constaté sur des centaines d'exemples. Et une dizaine avec le nouveau mode vocale.
Je suis d’accord, la transition se fera par étapes, on ne se rendra pas compte à quel point la technologie a évolué. Et sincèrement, avec cette nouvelle version de Voice, je pense que beaucoup de personnes ne verront pas la différence entre parler à une personne et parler avec cet assistant (notamment en anglais) - #testdeTuring
Merci bien 😁 On dit souvent que ChatGPT est un génie en maternelle. Il sait tout, mais il faut lui donner la main pour vraiment voir son potentiel. J’essaie de le guider du mieux que je puisse 😉
Sur SUNO toi tu chantes et elle fait la musique .. et même tu lui donne les paroles et elle chante et très bien... chat gpt est plus pour les conversation et les questions réponses
Intéressant, ouai il faut vraiment que je m’y plonge davantage. J’avais eu quelques problèmes à l’époque, mais je suppose qu’ils les ont été réglés depuis. Merci pour ton retour !
Bonjour, merci pour toutes tes explications c’est génial ! J’ai juste un soucis sur la dernière étape quand je met : - Applications - INSwapper, ça me met un message d’erreur rouge. « L’identifient de message ciblé spécifié est invalide » Serait tu m’expliquer pourquoi ? Merci 🙏🏽
Regarde en description, j’ai ajouté quelques erreurs possibles. La plus courante reste l’utilisation de la version web ou de l’application Discord. Si l’une ne fonctionne pas, l’autre devrait. Si tu peux aussi jeter un œil aux nouvelles méthodes avec Flux 1. Je dois en faire une vidéo, mais il y en a déjà pas mal en ligne. Ça a l’air vraiment performant
Merci pour les informations intéressantes. Très utile et informatif. Pourriez-vous recommander un outil pouvant être utilisé pour transformer un texte en une voix vivante et non mécanique ? Merci d'avance.
Bonjour, merci ! Personnellement, je préfère toujours ElevenLabs pour la traduction en français. Ils proposent aussi plusieurs fonctionnalités intéressantes avec la version pro, comme la création de son propre modèle et la génération d’une voix qui suit l’intonation qu’on lui donne
Bonjour, tout d'abord merci pour votre travail. Vous créez du contenu très utile. Veuillez recommander des services qui vous permettent de traduire du texte en voix. Payant et gratuit. J'en ai besoin pour créer une voix off pour une vidéo.
La video est cool mais alors la monotonie de la voix est just absolument insupportable. J'ai meme cru a plusieurs reprises que c'était une voix AI. Je conseille fortement de revoir ce point car ca changerait tout ! Bon courage !
Haha merci. On est d'accord, c'était l'une de mes premières vidéos. Je pense m'être un peu amélioré sur les dernières vidéos mais j'ai encore du chemin 😉
Hello, alors sur les iPhone, ce ne sont pas vraiment les fonctions d’IA qui sont en cause, mais plutôt la manière dont les données sont traitées et partagées. Sur le Pixel, Google utilise un système plus ouvert, en accord avec les réglementations 😉
@@LaMachinePensantenon, l’UE est à la bourre en terme de réglementation sur l’IA. Et ils pourraient être contraints de retirer certaines fonctionnalités dans les prochaines semaines / mois à venir si l’UE l’exige. Apple est en retard en matière d’IA et veut faire croire que c’est l’UE qui bloque mais même aux US ils sont à la traîne. Apple Intelligence sortira en Europe quand ils seront sûrs que l’UE le validera.
Non, tu as plusieurs possibilités, dont copier-coller le texte d’une image et le coller dans un document. Je te conseille d’aller directement voir sur leur site les différentes fonctionnalités : www.uipath.com/product/clipboard-ai
Je ne comprends pas bien comment tout cela fonctionne. Mais je me dis qu'en édictant des règles pour soi-disant forcer la libre concurrence, l'Europe arrive au résultat inverse. En tout cas, la libre concurrence, ce serait de laisser un acteur supplémentaire pénétrer le marché Européen. En l'occurrence, s'il n'y avait pas de règle, Apple pourrait proposer son IA en Europe et donc être un concurrent supplémentaire à Google. Avec ces règles, Apple risque de ne pas introduire son IA en Europe -> on a un concurrent de moins non ? Le fait qu'Apple décide de fermer son système n'a rien d'anticoncurrentiel. C'est un choix de fabriquant pour mieux contrôler son système et offrir plus de sécurité à ses utilisateurs. Finalement, la vraie liberté, c'est de laisser le choix à l'utilisateur d'opter pour un système fermé ou un système ouvert en toute connaissance de cause. Système fermé ne me semble pas être synonyme d'anti-concurrence. Si Google avait fermé son système, Samsung aurait surement continué à promouvoir son OS Tyzen, Sony aurait proposé son propre OS et Huawei aussi. Il y aurait eu autant de diversité si pas plus qu'aujourd'hui. Un autre exemple: Garmin par exemple, n'utilise pas Google OS dans ses montres comme le font tous les autres concurrents (hormis Apple). Le bénéfice, c'est que leur OS est meilleur en termes d'autonomie et cela permet d'avoir sur le marché des montres qui ont une autonomie d'une semaine à un mois alors que s'il avait utilisé Google OS, toutes les montres du marché présenteraient la même faiblesse d'autonomie. Et le fait que Garmin n'ouvre pas son système (ne permet pas de laisser d'autres fabricants de montre l'utiliser) n'a rien d'anticoncurrentiel. Au contraire, cela stimule les autres compagnies à essayer de faire mieux. Je pense que l'Europe devrait revoir sa conception de la libre concurrence.
Tu as de nombreuses ressources gratuites sur RU-vid ou des formations plus structurées sur Udemy ou Coursera. Après, le plus important, c’est juste d’être curieux et d’essayer
Merci pour les infos, je renonce donc à faire achat iPhone 16 ProMax et montre connectée Watch Ultra 2 suite au refus de l'Europe d'accéder à l'IA Apple. Pour répondre à tes deux interrogations !! À mon avis, il faut être plus souple concernant IA et continuer à protéger le consommateur pour répondre à tes deux questions, je vais attendre septembre 2025 pour acheter iPhone17ProMax
Effectivement les prompt pour tous les générateurs IA de vidéos sont toujours assez compliqués à utiliser. Ils ne sont pas encore au niveau des générateurs d'images 😉