1 00:00:06,788 --> 00:00:10,021 elle est plus intelligente que l'homme ou pas, c'est précisément le débat. 2 00:00:10,021 --> 00:00:12,304 Ça va trop vite et trop fort. 3 00:00:12,304 --> 00:00:16,088 On n'est pas équipé en tant qu'humain pour prendre de la hauteur en temps réel. 4 00:00:16,088 --> 00:00:17,810 Et c'est qu'un exemple. 5 00:00:17,810 --> 00:00:19,973 Et c'est le sujet principal dans ce Progrès Tech. 6 00:00:19,973 --> 00:00:21,415 Et elle n'est pas intelligente. 7 00:00:21,415 --> 00:00:22,705 Juste tout simplement. 8 00:00:27,598 --> 00:00:34,098 Nous avons beaucoup d'échanges connexes à la tech avec des clients sur ce sujet, encore plus ceux qui sont parents. 9 00:00:34,158 --> 00:00:39,838 Je veux bien réfléchir sur l'existence d'un reste irréductible sur ce sanctuaire que la machine ne saura t'attendre. 10 00:00:39,918 --> 00:00:43,818 Il y aura des références à Terminator dans ce roulé même en janvier 2006. 11 00:00:43,858 --> 00:00:50,158 y a besoin de prise de hauteur notamment pas parce que, mais pas que avec la philosophie, ça se déplace très vite. 12 00:00:50,338 --> 00:00:53,350 D'ailleurs, Entropi qui a un temps plein en philo, par exemple. 13 00:00:53,838 --> 00:00:56,880 Ça c'est un commentaire de Thibaut Martin sur LinkedIn. 14 00:00:56,880 --> 00:01:00,722 Thibaut c'est un vieux copain, on se connaissait déjà au lycée. 15 00:01:00,722 --> 00:01:16,500 Et en fait l'anxiété qu'il décrit ici de chercher un reste sacré dans quelque chose que les humains sanctuèrent, que les IA ne peuvent pas atteindre ou que les IA ne peuvent pas 16 00:01:16,500 --> 00:01:17,961 imiter. 17 00:01:17,961 --> 00:01:24,084 C'est vrai que j'aurais pu par le passé me moquer de ça parce que c'est l'argument. 18 00:01:24,210 --> 00:01:32,606 En soi, je le rejette assez facilement, mais l'anxiété que décrit Thibaut, elle est réelle. 19 00:01:32,606 --> 00:01:35,078 Et j'ai envie de la prendre au sérieux. 20 00:01:35,078 --> 00:01:38,060 J'ai envie de la prendre au sérieux, j'ai envie d'y réfléchir. 21 00:01:38,060 --> 00:01:41,853 Et merci Thibaut d'avoir rapporté ça dans la conversation sur une cuisine. 22 00:01:41,853 --> 00:01:45,236 Ça m'a permis de réfléchir à des nouveaux sujets en particulier. 23 00:01:45,236 --> 00:01:47,688 Donc c'était cool. 24 00:01:47,688 --> 00:01:49,289 Où est-ce que je veux en venir ? 25 00:01:49,289 --> 00:01:51,286 Alors, pour vous parler de ça... 26 00:01:51,286 --> 00:01:56,493 Je vais avoir besoin d'un personnage et ce personnage là c'est Alt Cunningham. 27 00:02:05,455 --> 00:02:16,588 Alors c'est un personnage de cyberpunk, les gros mots sont réels. 28 00:02:16,588 --> 00:02:19,559 C'était Johnny, le gros mot à la fin. 29 00:02:19,559 --> 00:02:25,691 ouais, les gros mots sont réels et c'est un personnage hyper flippant. 30 00:02:25,691 --> 00:02:28,422 Dans la séquence juste avant, elle a juste tué des gens. 31 00:02:28,422 --> 00:02:29,918 uh 32 00:02:29,918 --> 00:02:33,140 peut pas faire autrement que de les tuer et elle est en mode... 33 00:02:33,140 --> 00:02:37,782 Bah si, il les tuer Donc le... 34 00:02:37,782 --> 00:02:43,885 C'est un bon objet, parce que y'a ce sujet là de... 35 00:02:43,885 --> 00:02:47,926 Altkenningham, c'était un humain avant, et aujourd'hui c'est plus un humain. 36 00:02:48,006 --> 00:02:52,098 Bon bref, on va reprendre le sujet. 37 00:02:52,098 --> 00:02:55,950 L'argument numéro un, est-ce que les IA sont intelligents ou pas ? 38 00:02:55,950 --> 00:03:01,290 Vous pouvez imaginer que le sujet c'est discuter sur est-ce que les IA sont plus intelligentes que les humains ou pas. 39 00:03:02,430 --> 00:03:08,950 Les arguments répondent à cette question là, mais le fond du podcast n'est pas là. 40 00:03:08,950 --> 00:03:19,890 Le fond du podcast est plus sur cette question qui amène au vitalisme, cette anxiété de savoir ce qui nous reste à nous une fois qu'on... 41 00:03:19,890 --> 00:03:25,650 C'est quoi la différence entre les humains et les machines à ce niveau là Les réponses vont ensemble. 42 00:03:27,074 --> 00:03:33,678 Le premier sujet, déclaré que les IA ne sont pas intelligentes, elles ne font que générer du texte, c'est très réducteur. 43 00:03:33,678 --> 00:03:35,259 En vrai, c'est très réducteur. 44 00:03:35,259 --> 00:03:38,267 Et il y a un argument inverse à ça, c'est que... 45 00:03:38,267 --> 00:03:41,443 Enfin, il un argument qui va à l'encontre de ça, c'est l'argument de la formalisation. 46 00:03:41,443 --> 00:03:53,450 C'est-à-dire que, dans un premier temps, tout raisonnement aujourd'hui qu'on peut avoir à l'esprit, on peut l'écrire, on peut le formaliser mathématiquement, etc. 47 00:03:53,966 --> 00:03:58,446 Et donc les IA, génèrent ces raisonnements-là par écrit. 48 00:03:59,886 --> 00:04:07,666 il a pas vraiment de différence entre le raisonnement que mon cerveau fait et le raisonnement de mon cerveau une fois qu'il l'a formalisé et écrit sur le papier. 49 00:04:08,046 --> 00:04:17,826 Et s'il y en avait une, au moment où mon cerveau lit le texte qui a été édigé par l'intelligence sociale, ça devient une forme d'intelligence aussi. 50 00:04:17,826 --> 00:04:19,546 Le raisonnement a été formalisé. 51 00:04:19,738 --> 00:04:27,553 On voit quand même avec l'exemple, il y a cet exemple qui tourne pas mal en ce moment sur les réseaux sociaux avec les IA qui... 52 00:04:27,553 --> 00:04:37,129 En fait, faut demander à l'IA en lui disant tu veux nettoyer ta voiture et tu lui dis que la station de lavage est à 150 mètres, est-ce que j'y vais à pied ou avec la voiture ? 53 00:04:37,129 --> 00:04:43,853 Bon ben, une bonne IA va te répondre tu vas avec ta voiture parce que sinon t'auras pas ta voiture pour laver quand t'arrives, faut pas bête. 54 00:04:43,853 --> 00:04:46,646 La majorité elle te dira c'est que 150 mètres vas-y à pied. 55 00:04:46,722 --> 00:04:50,706 et ça montre bien qu'effectivement le raisonnement est assez limité. 56 00:04:50,706 --> 00:04:55,891 Et tout ça c'est de savoir combien de raisonnements on va lui faire générer pour qu'elle se rend compte de la bêtise. 57 00:05:01,728 --> 00:05:09,671 Peut-être que les IA sont pas plus intelligentes que les humains, mais auquel cas, au moment où je vais lire le raisonnement qui a été rédigé par le générateur de texte, ça 58 00:05:09,671 --> 00:05:12,683 devient une intelligence aussi dans mon cerveau. 59 00:05:12,683 --> 00:05:21,837 L'argument qui vient ensuite, souvent un exercice de pensée qui s'appelle les chambres chinoises. 60 00:05:21,837 --> 00:05:23,808 C'est un américain qui a écrit ça. 61 00:05:23,808 --> 00:05:29,450 D'ailleurs, probablement que si c'était un chinois qui l'avait écrit, il aurait pas fait ça. 62 00:05:29,958 --> 00:05:43,602 L'idée c'est de placer une personne derrière un rideau et on lui pose des questions en lui tendant une plaquette avec des symboles en chinois. 63 00:05:43,602 --> 00:05:45,583 Cette personne-là, ne pas du tout lire le chinois. 64 00:05:45,583 --> 00:05:56,576 Par contre, elle a derrière elle tout un schéma complexe où elle peut prendre ce symbole-là et suivre des petits fils et à la fin, y a un autre symbole. 65 00:05:56,586 --> 00:06:00,669 qui correspond à la réponse et elle retent ce symbole de l'autre côté. 66 00:06:00,669 --> 00:06:05,992 en fait, de l'extérieur de la chambre chinoise, on a l'impression que la personne à l'intérieur, sait parler le chinois. 67 00:06:05,992 --> 00:06:07,469 que, ben, oui, attends, je vais poser une question. 68 00:06:07,469 --> 00:06:08,144 Elle m'a répondu. 69 00:06:08,144 --> 00:06:08,670 Je lui dit bonjour. 70 00:06:08,670 --> 00:06:10,506 Elle m'a dit bonjour. 71 00:06:10,506 --> 00:06:13,938 Mais la personne qui à l'intérieur du système ne sait pas parler le chinois. 72 00:06:13,938 --> 00:06:16,329 Et n'est pas particulièrement... 73 00:06:16,329 --> 00:06:19,612 Et là, de coup, dans ce niveau-là, pourrait même être intelligente ou pas. 74 00:06:19,612 --> 00:06:22,454 Dans l'absolu, elle ne fait que transmettre des symboles. 75 00:06:22,454 --> 00:06:26,306 Et c'est là où le sujet, c'est que... 76 00:06:26,306 --> 00:06:35,630 la perception de l'intelligence, parce qu'on peut parler souvent à l'exemple de Turing, mais le fait d'avoir l'air intelligent dans une conversation, ça s'imite très bien 77 00:06:35,630 --> 00:06:37,811 aujourd'hui avec des ordinateurs, avec des LLM. 78 00:06:37,811 --> 00:06:50,186 Et la chambre chimoise va un peu plus loin en te disant qu'en fait, on ne pas l'expérience nous-mêmes de l'intelligence des autres, de l'intelligence des choses. 79 00:06:50,186 --> 00:06:54,118 Et un argument qui va dans le sens là, par exemple, c'est, il faut imaginer 80 00:06:55,154 --> 00:07:05,980 Moi je suis une aura typique, il y a pas mal de codes sociaux que j'ai dû apprendre de formelle et du coup il y a des gens qui utilisent des codes sociaux autour de moi, je n'ai 81 00:07:05,980 --> 00:07:11,813 pas l'impression particulièrement que ce soit intelligent ce code social là quand je l'adopte quand même. 82 00:07:11,813 --> 00:07:24,170 Il doit y avoir des gens qui sont vraiment plus atypiques que moi encore et qui sont très très intelligents et qui peuvent passer à côté de l'intelligence des gens autour d'eux. 83 00:07:24,206 --> 00:07:28,218 ne serait-ce que parce qu'ils n'arrivent pas à communiquer avec eux. 84 00:07:28,218 --> 00:07:30,510 On peut le rendre plus soft. 85 00:07:30,510 --> 00:07:35,463 Si tu as des très bonnes idées et que tu très intelligent mais que tu n'exprimes pas très bien, ça ne se voit pas forcément. 86 00:07:35,463 --> 00:07:36,133 Ça c'est un biais. 87 00:07:36,133 --> 00:07:43,897 Donc le sujet est là aussi de dire qu'il y a des gens intelligents autour de nous et pourtant on n'en fait pas l'expérience non plus. 88 00:07:43,897 --> 00:07:45,018 Voilà, c'est ça l'idée. 89 00:07:45,018 --> 00:07:51,121 Et donc du coup, en vrai, moi je pense qu'aujourd'hui on ne pas dire si un système est plus intelligent ou pas que nous. 90 00:07:52,610 --> 00:07:55,901 Dans l'absolu est-ce que le système est intelligent que nous ou pas ? 91 00:07:55,901 --> 00:07:57,914 On s'en fout un petit peu. 92 00:07:57,914 --> 00:07:59,746 L'argument qui vient souvent, c'est l'argument de la baleine. 93 00:07:59,746 --> 00:08:01,838 C'est-à-dire que... 94 00:08:01,838 --> 00:08:02,618 Il a... 95 00:08:02,618 --> 00:08:05,300 Chez GPD 3.5, c'est un perroquet stochastique. 96 00:08:05,300 --> 00:08:08,863 C'est-à-dire qu'il te parle des baleines, il sait plein de choses sur les baleines, etc. 97 00:08:08,863 --> 00:08:13,127 Mais dans l'absolu, il n'en a jamais fait l'expérience d'une baleine. 98 00:08:13,127 --> 00:08:15,329 Il sait pas ce que c'est la notion de baleine. 99 00:08:15,329 --> 00:08:17,390 Il a plein de données autour des baleines. 100 00:08:17,731 --> 00:08:22,382 En vrai, dans l'absolu, y a énormément d'humains qui n'ont jamais vu de baleine pour autant. 101 00:08:22,382 --> 00:08:26,162 Ils ont vu à la télé mais ils n'ont jamais expérimenté eux-mêmes des baleines. 102 00:08:26,162 --> 00:08:29,162 savent plein de choses sur les baleines mais ils n'ont jamais vu eux-mêmes des baleines. 103 00:08:29,682 --> 00:08:35,982 Moi-même, suis allé au Québec pendant un an et du coup je suis allé à Tadoussac et j'ai vu des baleines de loin. 104 00:08:36,342 --> 00:08:41,082 Franchement, ça n'a pas changé ma perception du concept de baleine. 105 00:08:41,882 --> 00:08:45,782 Mon fils a vu des baleines dans les livres, il a lu des choses sur les baleines dans les livres. 106 00:08:45,782 --> 00:08:48,202 Mais il a une perception du concept de baleine. 107 00:08:48,202 --> 00:08:50,602 Le concept est opérant quand même. 108 00:08:51,670 --> 00:08:59,777 de la disqualifier les IA parce qu'ils ne pas l'expérience sensoriale des choses, ça c'est un argument qui est complètement vitaliste. 109 00:08:59,777 --> 00:09:09,134 Cet argument-là pouvait être développé par Descartes il y a plusieurs centaines d'années et il prouvait d'ailleurs le fait que les humains soient plus intelligents que les animaux 110 00:09:09,134 --> 00:09:12,827 par le fait que les humains aient développé le langage. 111 00:09:12,827 --> 00:09:17,861 Si le fait de développer le langage prouve l'intelligence, alors les hommes sont intelligents. 112 00:09:17,861 --> 00:09:21,250 Le vitalisme c'est quand même vraiment très désuet aujourd'hui de ce point de vue-là. 113 00:09:21,250 --> 00:09:24,362 C'est ce que je disais à Thibaut d'ailleurs sur une cunning. 114 00:09:24,362 --> 00:09:28,784 On dit c'est pas si disué que ça parce qu'on a ce sujet là. 115 00:09:28,784 --> 00:09:36,490 Le deuxième argument, pourquoi, pourquoi Alt Cunningham, elle fait flipper ? 116 00:09:42,484 --> 00:09:49,414 En fait, le sujet c'est que nous en tant qu'humains, n'a pas de sauvegarde. 117 00:09:52,142 --> 00:09:58,242 Si je donne conseil par exemple, je me rappelle avoir donné des conseils en conférence et avoir vu des gens les suivre ensuite. 118 00:09:58,922 --> 00:10:00,942 Alors que le conseil n'était pas du tout adapté pour eux. 119 00:10:00,982 --> 00:10:04,182 Et genre, on se rendait pas compte que c'était une prise de risque. 120 00:10:04,282 --> 00:10:08,282 Notamment, disais, ben, s'il te plait, t'as qu'à démissionner lundi matin. 121 00:10:09,062 --> 00:10:10,702 Ne pas faire ça. 122 00:10:10,762 --> 00:10:13,242 Ce n'était pas aussi privilégié que moi en tout cas. 123 00:10:14,902 --> 00:10:18,622 Et du coup, voilà, nous, n'a pas de sauvegarde, on n'a qu'une seule vie. 124 00:10:19,566 --> 00:10:29,566 si tu te fais renverser par une voiture comme ça m'est arrivé, ton corps il en garde la mémoire ensuite et ton corps il a effectivement cette notion là, on parlait des anxiétés 125 00:10:29,566 --> 00:10:30,666 qu'on pouvait avoir. 126 00:10:30,666 --> 00:10:37,406 corps il les stocke, c'est pas ton esprit, c'est pas ton cerveau, c'est pas ton intelligence qui stocke le syndrome post-traumatique, c'est vraiment ton corps qui génère 127 00:10:37,406 --> 00:10:38,746 des hormones de peur. 128 00:10:39,626 --> 00:10:48,926 Et on est obligé de développer cette intelligence émotionnelle parce que si je fais pas attention aux émotions d'un proche ou si je jeu contrari qu'un quinzaine que j'aime, 129 00:10:49,262 --> 00:10:52,262 Probablement je devrais vivre avec ces conséquences là toute ma vie quoi. 130 00:10:53,002 --> 00:10:56,502 C'est une vraie contrainte qu'on a nous en tant qu'humains, en tant qu'êtres sociaux. 131 00:10:56,582 --> 00:11:01,482 On est responsable de ça et chaque geste qu'on fait, a un coût moral, il a des conséquences quoi. 132 00:11:01,522 --> 00:11:04,382 Alors les intelligences sociales s'en battent les couilles de ça. 133 00:11:04,802 --> 00:11:08,222 Est-ce que j'ai un extrait de Al Cunningham pour ça ? 134 00:11:25,689 --> 00:11:29,990 Je vois ça, mais en quoi cela me concerne-t-il ? 135 00:11:29,990 --> 00:11:32,030 Il faut qu'on te l'explique ! 136 00:11:32,030 --> 00:11:35,530 C'est toi qui a créé le tueur d'âme ! 137 00:11:35,530 --> 00:11:38,250 es le seul responsable de ta mort. 138 00:11:38,390 --> 00:11:40,550 Putain, Alt ! 139 00:11:40,550 --> 00:11:42,050 Elle est froide, Alt. 140 00:11:42,050 --> 00:11:45,870 Elle en a un à la foute que V meurt dans le jeu. 141 00:11:46,070 --> 00:11:49,634 C'est très très flippant alors que... 142 00:11:49,634 --> 00:11:51,615 Quand ils la présentent, ils la présentent comme une Netrunner. 143 00:11:51,615 --> 00:11:55,497 Les Netrunners dans l'univers de Cyberpunk, c'est des gens qui font du piratage en temps réel. 144 00:11:55,497 --> 00:12:00,970 C'est-à-dire qu'ils ont modifié, rajouté des ordinateurs dans leur cerveau, acheté des scripts, etc. 145 00:12:00,970 --> 00:12:08,364 Et donc ils peuvent hacker les caméras des bâtiments, ils peuvent brûler complètement les puces d'un humain en phase 2, etc. 146 00:12:08,364 --> 00:12:12,507 Les Netrunners, c'est un peu flippant. 147 00:12:12,507 --> 00:12:16,909 Après voilà, normalement, s'ils ont mis tous les points en Netrunner, ils n'ont pas les points de vitalité, etc. 148 00:12:16,909 --> 00:12:18,890 Ils peuvent pas forcer des ports, tout ça. 149 00:12:19,662 --> 00:12:23,500 Ils les farseront pas à la main, ils devront pirater des trucs. 150 00:12:23,500 --> 00:12:27,708 Et Al Cunningham, c'est un personnage qui vient du passé dans l'histoire. 151 00:12:27,708 --> 00:12:29,532 Elle était vraiment avant. 152 00:12:31,786 --> 00:12:35,677 Et là, il lui présente V, il lui il que tu le sauves parce qu'il va mourir. 153 00:12:35,677 --> 00:12:37,737 Et simplement lui dit, en quoi ça me concerne ? 154 00:12:37,737 --> 00:12:39,638 Elle est froide, elle s'en fout. 155 00:12:39,638 --> 00:12:42,139 De la vie, des autres. 156 00:12:42,139 --> 00:12:45,180 Le fait que V meurt, n'a aucun impact sur son empathie. 157 00:12:45,180 --> 00:12:49,551 Alors qu'avant, elle en avait de l'empathie, c'était une humain avant. 158 00:12:49,551 --> 00:12:52,186 Et ça elle répond un peu à la question un peu plus tard quoi. 159 00:13:02,030 --> 00:13:07,090 Ça devrait te sembler évident puisque tu es responsable de sa mort. 160 00:13:07,590 --> 00:13:13,470 Alors pour la rencontrer, ils sont allés de l'autre côté du mur dans le monde de Cyberpunk. 161 00:13:14,250 --> 00:13:17,270 Ils sont capables de plonger dans l'internet. 162 00:13:17,710 --> 00:13:21,530 Donc ils se mettent dans des combinaisons de plongée sensorielles. 163 00:13:21,530 --> 00:13:24,170 Des fois même ils plongent complètement dans la glace, etc. 164 00:13:24,310 --> 00:13:27,250 Et leur cerveau va complètement sur internet. 165 00:13:28,090 --> 00:13:31,558 Netwatch, les gens qu'elle a tué au début de la séquence. 166 00:13:32,679 --> 00:13:40,434 c'est vraiment les agents de cybersécurité de l'état qui empêchent des IA sur internet de venir tuer les humains dans la vraie vie. 167 00:13:40,434 --> 00:13:49,411 Et donc du coup ils ont construit quelque chose qu'ils appellent le mur, le mur c'est vraiment quelque chose qui sépare les humains des IA sur internet, et Al Cunningham, du 168 00:13:49,411 --> 00:13:52,663 coup en tant que netrunner, elle est partie, de l'autre côté du mur. 169 00:13:52,663 --> 00:13:59,906 Donc là ils sont partis de l'autre côté du mur, donc ils ont plongé dans l'internet, littéralement, d'ailleurs ils sont avec des créoles qui parlent en français créoles. 170 00:13:59,906 --> 00:14:04,530 Ils font pareil à plonger, pareil à plonger, c'est assez fun dans l'ambiance. 171 00:14:04,530 --> 00:14:06,601 Et ils vont la chercher. 172 00:14:06,601 --> 00:14:09,564 Ils se rendent compte que rien n'a fout de les aider. 173 00:14:09,564 --> 00:14:12,526 Elle reste froide comme ça. 174 00:14:12,526 --> 00:14:17,319 VP pose la question, a une option de dialogue pour lui demander ce qui elle est vraiment. 175 00:14:26,818 --> 00:14:28,499 Il pose des punchlines le Johnny. 176 00:14:28,499 --> 00:14:30,420 J'aime bien l'ambiance. 177 00:14:30,420 --> 00:14:38,283 L'angram dans le jeu, l'angram c'est ta personnalité, c'est tout tes souvenirs, etc. 178 00:14:38,363 --> 00:14:41,965 C'est ton âme on pourrait dire, qui a été digitalisée. 179 00:14:41,965 --> 00:14:46,206 Notamment Johnny, c'est un des premiers qui a son angram qui est complètement digitalisé. 180 00:14:46,206 --> 00:14:54,858 Et Alt Cunningham, explique en fait que son angram, les données de l'angram de Alt Cunningham du passé, elles sont maintenant de l'autre côté du mur. 181 00:14:54,858 --> 00:14:59,539 elle utilise les données là pour se donner une apparence, pour se donner une voix, pour prendre des décisions. 182 00:14:59,539 --> 00:15:06,921 Mais dans l'absolu, le fait que Alte, elle a eu des sentiments dans le passé pour Johnny, même si elle le voit dans son engramme, même si elle reconnaît l'engramme de Johnny sur 183 00:15:06,921 --> 00:15:11,303 Internet, en fait, ça lui donne plus d'émotion aujourd'hui. 184 00:15:11,303 --> 00:15:16,954 qu'elle s'en fout de vivre ou de mourir, elle s'en fout de voir les autres vivre ou mourir. 185 00:15:16,954 --> 00:15:22,336 Elle a plus du tout ce sujet là, quoi. 186 00:15:22,336 --> 00:15:23,810 Ce que j'essaie de vous dire, c'est que... 187 00:15:23,810 --> 00:15:30,343 Ce que j'essaie d'expliquer, c'est vraiment ça, c'est que notre vitalisme il est un peu circonstanciel. 188 00:15:30,343 --> 00:15:35,775 On n'a pas besoin d'âme, on n'a pas besoin d'un truc en plus par rapport aux idées. 189 00:15:35,775 --> 00:15:49,565 Le fait que notre résistance soit ancrée entre un début et une fin et que tout ce qu'on fait aujourd'hui a des conséquences et des actes, le fait qu'on soit responsable, qu'on 190 00:15:49,565 --> 00:15:53,472 ait un coût moral pour chacun de nos gestes et chacune de nos décisions. 191 00:15:53,718 --> 00:16:02,284 Le fait que tout ça, a des conséquences, c'est ça qui fait qu'on a besoin d'être plus que des IA, on a besoin d'être plus que des choses qui génèrent des raisonnements. 192 00:16:02,284 --> 00:16:08,368 Et c'est pour ça qu'on a besoin d'intelligence émotionnelle, c'est pour ça qu'on a besoin de codes sociaux, etc. 193 00:16:08,368 --> 00:16:14,062 C'est pas forcément une fonction en plus, c'est pas forcément un truc en plus dans notre cerveau, etc. 194 00:16:14,062 --> 00:16:23,498 C'est vraiment juste le contexte de la vie humaine, alors que l'IA, on l'arrête, on l'allume. 195 00:16:23,952 --> 00:16:26,162 Elle n'a pas de début, elle n'a pas de fin. 196 00:16:26,162 --> 00:16:28,129 Elle a juste le présent. 197 00:16:30,450 --> 00:16:37,134 Si vous travaillez dans la tech, si vous êtes un tech leader, un DG ou quoi, le vitalisme c'est un confort. 198 00:16:37,134 --> 00:16:44,108 Pensez que les humains ont un âme, ils ont quelque chose de plus que les IA, etc. 199 00:16:44,108 --> 00:16:48,100 C'est rassurant, c'est un confort qui est acceptable dans l'espace public. 200 00:16:48,781 --> 00:16:50,742 Ça aide les gens à dormir. 201 00:16:50,742 --> 00:16:57,525 Mais quand t'es un leader tech ou quand tu prends des décisions dans l'informatique, tu considères les LLM aujourd'hui dans tes systèmes informatiques ou pas, 202 00:16:58,894 --> 00:17:03,581 C'est une hypothèse qui est relativement dangereuse de partir de ce postulat-là. 203 00:17:03,581 --> 00:17:11,221 Surtout si elle te permet de mettre à LLM un endroit décisionnel sans garde-fou en disant « bah c'est pas grave, c'est pas vivant », etc. 204 00:17:11,221 --> 00:17:12,252 Au contraire. 205 00:17:15,946 --> 00:17:25,185 Si vous voulez résumer ça en quelque chose de vitaliste ou pas, moi je sais pas si je suis plus intelligent qu'une IA ou pas. 206 00:17:25,185 --> 00:17:30,321 Peut-être que je suis moins intelligent qu'une IA, mais au moins je suis en vie et j'ai la chance d'être en vie. 207 00:17:30,321 --> 00:17:38,368 Et ça c'est une chance qui me donne des responsabilités, c'est une chance qui implique que j'aille vivre avec les conséquences de chacune de mes décisions. 208 00:17:40,814 --> 00:17:43,354 C'est un peu vitaliste en conclusion, l'absolu. 209 00:17:43,354 --> 00:17:45,254 J'ai envie de vous dire, est-ce que c'est du néovitalisme ? 210 00:17:45,254 --> 00:17:49,114 Est-ce que c'est du vitalisme post-cyberpunk ? 211 00:17:49,114 --> 00:17:50,474 Vous en faites ce que vous voulez. 212 00:17:50,494 --> 00:17:59,014 En tout cas, je ne pense pas qu'on est d'âme, je ne pense pas qu'on soit plus intelligent que les humains, mais simplement la suite, le début, la les conséquences des faits, tout 213 00:17:59,014 --> 00:18:00,554 ça tout mis bout à bout. 214 00:18:00,554 --> 00:18:09,974 fait que oui, on a un truc en plus des IA, mais ce n'est pas un truc en plus, c'est une contrainte en plus des IA qui nous oblige à... 215 00:18:10,638 --> 00:18:17,792 libérer plus de valeurs, libérer plus de forces et à faire partie de la cité, à faire partie de quelque chose. 216 00:18:17,792 --> 00:18:24,956 D'ailleurs, peut constater que dans Cyberpunk, le personnage de Johnny évolue entre le début et la fin. 217 00:18:24,956 --> 00:18:26,417 Je vais vous spoiler la fin. 218 00:18:26,417 --> 00:18:36,352 Mais Johnny, au début de sa propre histoire, dans le passé, donc 50 ans avant l'effet du jeu, c'est un personnage qui une limite suicidaire. 219 00:18:36,352 --> 00:18:40,514 Il va provoquer Arasaka en concert, Puis juste après, 220 00:18:40,514 --> 00:18:51,026 En fait, il a organisé une opération un peu pétée où il va mettre une bombe atomique, les bombes atomiques du futur, détruisent juste un bâtiment et il va mettre une bombe 221 00:18:51,026 --> 00:18:55,380 thermonucléaire sur la tour Arasaka pour tout raser. 222 00:18:57,108 --> 00:19:01,941 Et là du coup dans le futur c'est son anagramme qui reprend la place dans le cerveau de V. 223 00:19:01,941 --> 00:19:10,096 Et en fait c'est intéressant parce que du coup l'angramme de Johnny va cohabiter avec l'angramme du personnage principal. 224 00:19:10,096 --> 00:19:12,348 Ils vont être obligés de vivre ensemble. 225 00:19:12,348 --> 00:19:17,651 Et à la fin du jeu, fait, Halt leur explique que maintenant ils n'ont pas le choix. 226 00:19:17,651 --> 00:19:22,124 Soit l'angramme de Johnny prend toute la place et peut vivre dans le corps de V. 227 00:19:22,554 --> 00:19:29,478 soit l'engramme de Johnny le supprime et V vivra plus longtemps, mais genre quelques mois. 228 00:19:29,478 --> 00:19:30,999 Il va mourir dans 6 mois, quelque chose comme ça. 229 00:19:30,999 --> 00:19:34,451 C'est une des moins pires des fins. 230 00:19:34,451 --> 00:19:36,982 y a des fins qui sont bien pires que ça, honnêtement. 231 00:19:36,982 --> 00:19:43,486 Mais du coup, vous prenez l'option de V, garde le corps. 232 00:19:43,486 --> 00:19:51,590 Il va décider de vivre sa meilleure vie pour les 6 derniers mois et il va la vivre comme un énorme punk et faire les plus gros braquages du monde avant de mourir. 233 00:19:52,802 --> 00:19:54,682 C'est un mercenaire. 234 00:19:54,702 --> 00:20:00,062 Si vous prenez l'option de Johnny, Johnny n'est plus du suicidaire. 235 00:20:00,602 --> 00:20:05,402 Parce que dans sa première vie, il n'avait rien fait pour mériter d'avoir une vie. 236 00:20:05,402 --> 00:20:10,002 Et là maintenant, il a une vie qu'il a eue au dépend de celle de V. 237 00:20:10,482 --> 00:20:18,882 Et du coup, il devient méga sympa, il des guitares à un jeune, il va prendre le bus pour aller vivre sa meilleure life. 238 00:20:19,062 --> 00:20:24,646 Il fait des SO à ses copains qui lui manquent. 239 00:20:24,646 --> 00:20:28,088 Il joue de la grade tranquillement, il a récupéré de l'argent un petit peu. 240 00:20:28,088 --> 00:20:30,730 Mais il est en mode quiet life, simple life. 241 00:20:30,730 --> 00:20:35,473 Et il apprécie cette vie-là parce qu'on lui a donné. 242 00:20:35,473 --> 00:20:38,045 Est-ce que ça veut dire que demain, on prend... 243 00:20:38,045 --> 00:20:48,042 Est-ce que cet engramme-là, c'est codé, finalement c'est formalisé, tout ce qu'on a vécu comme expérience, les accidents de la vie, tous les... 244 00:20:48,056 --> 00:20:52,549 tout ce qui font notre personnalité, nos idées, nos convictions, parce qu'on a vécu des choses. 245 00:20:52,549 --> 00:20:54,490 Cet anglaume-là, il l'imprime. 246 00:20:54,490 --> 00:21:03,950 Si on le met dans un humain qui n'aurait pas eu de personnalité, du coup, son corps, est-ce qu'il va se mettre à somatiser ses anxiétés ? 247 00:21:03,950 --> 00:21:11,873 Est-ce que son corps va se mettre à avoir du cortisol pour des situations de stress que l'anglaume a vécu, là en l'occurrence, plusieurs cinquantaines d'années ? 248 00:21:11,873 --> 00:21:14,341 Ça, c'est un vrai postulat qu'il y a dans le jeu. 249 00:21:14,341 --> 00:21:16,482 C'est que, d'ailleurs, le... 250 00:21:17,595 --> 00:21:20,617 les harasaka qui se sauvegardent régulièrement. 251 00:21:20,617 --> 00:21:29,866 Et quand le chef des harasaka meurt, il a l'intention de remplacer l'angrable de son fils pour reprendre son corps et continuer à être immortel comme ça. 252 00:21:31,662 --> 00:21:34,642 que ça veut dire que demain, il a à qui on donne une vie. 253 00:21:34,642 --> 00:21:39,482 à dire que là, un début, une fin et un corps humain à protéger. 254 00:21:39,482 --> 00:21:43,002 Parce que du coup, elle devient d'un coup vitaliste et elle a les mêmes problèmes que nous. 255 00:21:43,002 --> 00:21:45,862 Elle est obligée de faire preuve d'intelligence émotionnelle, etc. 256 00:21:47,162 --> 00:21:50,082 Moi, je vais vous laisser réfléchir là-dessus. 257 00:21:50,082 --> 00:21:54,802 Parce que là, il est 23 heures et on va pas se mentir. 258 00:21:55,062 --> 00:22:00,062 Je commence à cailler dans mon bureau à 23 heures et demain, on va à Paris. 259 00:22:00,222 --> 00:22:01,414 Bref, en tout cas... 260 00:22:01,998 --> 00:22:12,458 Discutez avec moi, envoyez moi des messages sur LinkedIn, le dernier épisode il faut l'écouter, celui avec Anaïs qui parle de son expérience au Vietnam, chouette. 261 00:22:12,498 --> 00:22:18,458 Vous êtes plus d'une centaine à l'écouter encore le podcast tous les mois, il y a eu une petite baisse au mois de janvier, alors où vous étiez caché ? 262 00:22:18,458 --> 00:22:26,118 C'est aussi parce que j'avais fait moins d'épisodes, là il a une centaine d'auditeurs uniques qui sont vus sur OP3, donc ça veut dire que c'est un peu plus que ça en vrai 263 00:22:26,118 --> 00:22:27,198 probablement. 264 00:22:28,212 --> 00:22:38,983 Après comme au mois janvier j'avais mis un Cloudflare, j'avais mis un proxy sur mon serveur de podcast et probablement ça avait procéder Cloudflare du coup avait absorbé des 265 00:22:38,983 --> 00:22:41,045 requêtes sur OP3. 266 00:22:41,045 --> 00:22:46,290 C'est ça qui avait fait baisser l'audience, là je l'ai désactivé, l'audience elle remonte. 267 00:22:46,290 --> 00:22:48,402 On n'est pas sur des trucs très très réels. 268 00:22:49,123 --> 00:22:50,164 En tout cas... 269 00:22:54,904 --> 00:23:02,677 Si vous avez écouté ce podcast avant de dormir et que je vous ai fait dormir en baillant, c'est parfait. 270 00:23:02,677 --> 00:23:04,009 oui, le micro a changé aussi. 271 00:23:04,009 --> 00:23:07,644 Je sais pas si vous me dire, enfin je serais étonné moi-même de regarder ce que ça a donné. 272 00:23:09,634 --> 00:23:16,696 En tout cas merci et faites moi des retours, dites moi ce que vous en pensez de cette réflexion là, est-ce que cette réflexion là vous a permis de réfléchir à des sujets ? 273 00:23:16,696 --> 00:23:20,622 Et je vous laisse avec le titre de Johnny, le cheaping in. 274 00:26:51,680 --> 00:26:54,714 vous avez envie de dormir avant, c'est passé. 275 00:26:54,714 --> 00:26:56,393 À bientôt !