0:00:01.000,0:00:03.000 Aujourd'hui, je voudrais vous parler 0:00:03.000,0:00:06.000 d'irrationalité prévisible. 0:00:06.000,0:00:10.000 Mon intérêt [br]pour le comportement irrationnel 0:00:10.000,0:00:13.000 a commencé il y a de nombreuses années [br]dans un hôpital. 0:00:13.000,0:00:16.010 J'ai été très grièvement brulé. 0:00:17.000,0:00:20.000 Si vous passez [br]beaucoup de temps à l'hôpital, 0:00:20.000,0:00:23.000 vous verrez de nombreux [br]types d'irrationalité. 0:00:23.000,0:00:28.000 Celui qui m'a dérangé particulièrement [br]dans le département des brulés, 0:00:28.000,0:00:32.000 c'était le processus par lequel [br]les infirmières ôtaient mes bandages. 0:00:32.750,0:00:35.230 Vous avez tous ôté un sparadrap [br]un jour ou l'autre, 0:00:35.230,0:00:38.110 et vous avez dû vous demander [br]quelle est la bonne approche. 0:00:38.110,0:00:42.000 Vous l'arrachez vite - [br]courte durée mais forte intensité - 0:00:42.000,0:00:44.000 ou bien vous le retirez lentement - 0:00:44.000,0:00:48.000 vous mettez longtemps, mais [br]chaque seconde est moins douloureuse. 0:00:48.000,0:00:51.000 Laquelle des deux est la bonne approche ? 0:00:51.000,0:00:55.000 Les infirmières de mon département [br]pensaient que la bonne approche 0:00:55.000,0:00:58.330 était celle de l'arrachement : [br]elles attrapaient et elles arrachaient, 0:00:58.330,0:01:00.260 elles attrapaient et elles arrachaient. 0:01:00.260,0:01:04.000 Comme j'avais 70 pour cent de mon corps [br]brulé, ça prenait près d'une heure. 0:01:04.000,0:01:07.000 Et comme vous pouvez l'imaginer, 0:01:07.000,0:01:10.880 je haïssais ce moment d'arrachement [br]avec une incroyable force. 0:01:10.880,0:01:13.000 J'essayais de raisonner [br]avec elles en disant : 0:01:13.000,0:01:14.400 " Si on essayait autre chose? 0:01:14.400,0:01:16.190 Si on prenait un peu plus de temps - 0:01:16.190,0:01:21.000 peut-être deux heures au lieu d'une -[br]on aurait moins de cette intensité ? " 0:01:21.000,0:01:23.000 Les infirmières m'ont dit deux choses. 0:01:23.000,0:01:27.000 Elles m'ont dit qu'elles avaient [br]le modèle correct du patient - 0:01:27.000,0:01:30.000 qu'elles savaient quoi faire [br]pour minimiser ma douleur - 0:01:30.000,0:01:33.000 et m'ont aussi dit que le mot patient [br]ne signifie pas 0:01:33.000,0:01:35.000 qu'on doit faire des suggestions [br]ou interférer ou ... 0:01:35.000,0:01:38.000 Au fait, ce n'est pas qu'en hébreu, 0:01:38.000,0:01:41.000 c'est dans chaque langue [br]pour autant que je sache. 0:01:41.000,0:01:45.000 Il n'y avait pas grand chose [br]que je puisse faire, 0:01:45.000,0:01:48.000 et elles ont continué à faire [br]ce qu'elles faisaient. 0:01:48.000,0:01:50.100 Trois ans plus tard, [br]j'ai quitté l'hôpital, 0:01:50.100,0:01:53.000 et j'ai commencé à étudier à l'université. 0:01:53.000,0:01:56.000 Une des leçons les plus intéressantes [br]que j'aie apprises 0:01:56.000,0:01:58.000 était qu'il existe [br]une méthode expérimentale : 0:01:58.000,0:02:02.000 vous vous posez une question, [br]et vous en créez une copie, 0:02:02.000,0:02:06.000 d'une manière abstraite, et vous pouvez [br]essayer d'examiner cette question, 0:02:06.000,0:02:08.000 pour apprendre [br]quelque chose sur le monde. 0:02:08.000,0:02:10.000 C'est ce que j'ai fait. 0:02:10.000,0:02:13.200 Je m'intéressais toujours [br]à la question des bandages. 0:02:13.220,0:02:16.000 Au début, je n'avais [br]pas beaucoup d'argent. 0:02:16.000,0:02:20.000 Je suis donc allé au magasin [br]acheter un étau de charpentier. 0:02:20.630,0:02:24.000 J'amenais des gens au labo, [br]je mettais leur doigt dedans, 0:02:24.000,0:02:26.000 et je l'écrasais un petit peu. 0:02:26.000,0:02:27.830 (Rires) 0:02:27.830,0:02:31.080 Je l'écrasais pendant des périodes [br]longues, des périodes courtes, 0:02:31.080,0:02:33.000 la douleur montait [br]elle descendait, 0:02:33.000,0:02:37.000 avec des pauses et sans pause - [br]tout un tas de versions de la douleur. 0:02:37.000,0:02:39.000 Quand j'avais fini, je leur demandais : 0:02:39.000,0:02:41.000 " Alors, comment était cette douleur ? 0:02:41.000,0:02:43.000 Si vous deviez choisir en ces deux-là, 0:02:43.000,0:02:45.000 laquelle vous choisiriez ? " 0:02:45.000,0:02:48.000 (Rires) 0:02:48.000,0:02:51.000 J'ai continué à faire ça [br]pendant un bon moment. 0:02:51.000,0:02:53.000 (Rires) 0:02:53.000,0:02:57.000 Puis, comme tout bon projet académique, [br]j'ai reçu plus de fonds. 0:02:57.000,0:03:00.020 Je suis passé aux sons, [br]aux décharges électriques - 0:03:00.020,0:03:02.000 j'avais même un costume de douleur 0:03:02.000,0:03:04.280 pour faire ressentir [br]encore plus de douleur. 0:03:05.930,0:03:08.000 Mais à la fin de ce processus, 0:03:08.000,0:03:11.000 ce que j'ai appris, c'est que [br]les infirmières avaient tort. 0:03:11.000,0:03:14.000 Vous aviez là des personnes [br]merveilleuses et bien intentionnées 0:03:14.000,0:03:16.000 avec plein d'expérience, et néanmoins 0:03:16.000,0:03:20.000 elles se trompaient tout le temps[br]d'une manière prévisible. 0:03:20.000,0:03:23.000 Il s'avère que comme nous [br]n'encodons pas la durée 0:03:23.000,0:03:25.000 comme nous encodons l'intensité, 0:03:25.000,0:03:29.000 j'aurais eu moins de douleur [br]si la durée avait été allongée 0:03:29.000,0:03:31.000 et l'intensité réduite. 0:03:31.000,0:03:34.840 Il aurait été plus judicieux de commencer [br]avec le plus douloureux, mon visage, 0:03:34.840,0:03:36.470 et de continuer vers mes jambes, 0:03:36.470,0:03:39.000 pour créer une tendance [br]à l'amélioration -- 0:03:39.000,0:03:40.610 cela aurait été moins douloureux. 0:03:40.610,0:03:42.860 Il aurait été bon aussi[br]de me laisser des pauses 0:03:42.860,0:03:44.490 pour récupérer de la douleur. 0:03:44.490,0:03:46.840 Toutes ces choses aurait été bonnes, 0:03:46.840,0:03:49.000 et mes infirmières [br]ne le savaient pas. 0:03:49.000,0:03:50.000 Ensuite j'ai pensé : 0:03:50.000,0:03:53.020 les infirmières sont-elles les seuls gens [br]au monde qui ont faux 0:03:53.020,0:03:56.130 pour cette décision précise, ou [br]le problème est-il plus général ? 0:03:56.130,0:03:58.010 Le problème s'avère plus général. [br] 0:03:58.010,0:04:01.010 Nous commettons beaucoup d'erreurs. 0:04:01.010,0:04:06.000 Je veux vous donner un exemple [br]d'une de ces irrationalités : 0:04:06.000,0:04:09.000 je veux vous parler de la tricherie. 0:04:09.000,0:04:11.280 J'ai choisi ce sujet[br]parce que c'est intéressant 0:04:11.280,0:04:12.990 et cela nous dit quelque chose 0:04:13.000,0:04:16.000 au sujet de la situation boursière [br]dans laquelle nous sommes. 0:04:16.000,0:04:19.000 Ainsi, mon intérêt pour la tricherie [br]a commencé quand Enron 0:04:19.000,0:04:21.810 est apparu sur la scène, [br]et a explosé d'un coup. 0:04:21.810,0:04:24.000 J'ai commencé à penser [br]à ce qui se passait là. 0:04:24.000,0:04:26.550 Est-ce un cas ou il y avait[br]quelques pommes pourries 0:04:26.550,0:04:28.000 capables de faire ces choses, 0:04:28.000,0:04:30.000 ou est-ce une situation plus endémique, 0:04:30.000,0:04:34.000 où de nombreuses personnes [br]sont capables d'agir comme ça? 0:04:34.000,0:04:37.790 Donc, comme d'habitude, j'ai décidé [br]de faire une expérience simple. 0:04:37.790,0:04:39.130 Voilà de quoi il s'agit. 0:04:39.130,0:04:42.140 Si vous participiez à l'expérience, [br]je vous passais une feuille 0:04:42.140,0:04:45.440 avec 20 problèmes de math simples, [br]que tout le monde peut résoudre, 0:04:45.440,0:04:47.720 mais je ne vous donnerais[br]pas assez de temps. 0:04:47.720,0:04:50.000 Quand les 5 minutes [br]étaient écoulées, je disais : 0:04:50.000,0:04:53.060 " Passez-moi les feuilles, vous [br]recevrez un dollar par question. " 0:04:53.060,0:04:56.910 Des gens l'ont fait. Je payais les gens [br]quatre dollars pour leur tâche -- 0:04:56.910,0:04:58.780 La moyenne était [br]de 4 bonnes réponses. 0:04:58.780,0:05:01.660 Pour d'autres, j'essayais [br]de les tenter à tricher. 0:05:01.660,0:05:03.120 Je leur donnais leur feuille. 0:05:03.120,0:05:05.000 Après cinq minutes, je disais : 0:05:05.000,0:05:06.580 " Veuillez déchirer la feuille. 0:05:06.580,0:05:09.000 Mettez les morceaux [br]dans votre poche, 0:05:09.000,0:05:12.000 et dites-moi combien [br]de questions vous avez bonnes." 0:05:12.000,0:05:15.000 Maintenant, les gens résolvaient [br]7 questions en moyenne. 0:05:15.000,0:05:20.000 Et ce n'est pas comme s'il y avait [br]quelques pommes pourries -- 0:05:20.000,0:05:22.560 quelques personnes [br]qui trichaient beaucoup. 0:05:22.560,0:05:26.000 Au lieu de ça, on a vu beaucoup de monde [br]qui triche un petit peu. 0:05:26.000,0:05:29.000 Bon, en théorie économique, 0:05:29.000,0:05:31.780 la tricherie est une analyse [br]coût-bénéfice très simple. 0:05:31.780,0:05:34.540 "Quelle est la probabilité [br]que je me ferai attraper ? " 0:05:34.540,0:05:37.000 " Combien ai-je à gagner en trichant ? " 0:05:37.000,0:05:39.290 " Combien ça me coûte [br]si je me fais attraper ? " 0:05:39.290,0:05:41.000 Et vous pesez les options -- 0:05:41.000,0:05:43.000 une simple analyse coût-bénéfice -- 0:05:43.000,0:05:46.110 et vous décidez si ça vaut le coup [br]de commettre le crime ou pas. 0:05:46.110,0:05:48.000 Donc, on a essayé de tester ça. 0:05:48.000,0:05:52.000 Pour certains, nous avons varié [br]le montant qu'ils pouvaient en tirer -- 0:05:52.000,0:05:53.200 qu'ils pourraient voler. 0:05:53.200,0:05:56.000 Nous avons payé 10 cents par réponse [br]correcte, 50 cents, 0:05:56.000,0:05:59.000 un dollar, cinq dollars, 10 dollars [br]par réponse correcte. 0:05:59.000,0:06:03.000 On pourrait s'attendre à ce que, [br]plus il y a d'argent sur la table, 0:06:03.000,0:06:06.000 plus les gens tricheraient, mais en fait [br]ce n'était pas le cas. 0:06:06.000,0:06:09.000 Beaucoup de gens qui trichaient [br]en volant juste un petit peu. 0:06:09.000,0:06:11.580 Et la probabilité de se faire attraper? 0:06:11.580,0:06:14.970 Un groupe a déchiré la moitié [br]de la feuille, laissant un peu de preuve. 0:06:14.970,0:06:17.050 Un autre groupe a déchiré [br]toute la feuille. 0:06:17.050,0:06:20.000 Un autre groupe a déchiré tout, [br]est sorti de la pièce, 0:06:20.000,0:06:23.000 et s'est servi dans un bol qui contenait [br]plus de 100 dollars. 0:06:23.000,0:06:26.380 On s'attendrait à ce que, la probabilité [br]de se faire prendre baissant, 0:06:26.380,0:06:29.000 les gens tricheraient plus, [br]mais ce n'était pas le cas. 0:06:29.000,0:06:32.000 Les gens ont triché juste un petit peu, 0:06:32.000,0:06:35.000 et ils ont ignoré [br]ces stimulations économiques. 0:06:35.000,0:06:40.950 Alors on s'est dit : " Si les explications[br]de la théorie sont ignorées à ce point, 0:06:41.000,0:06:44.000 qu'est-ce qui peut bien se passer?" 0:06:44.000,0:06:46.680 Et on a pensé qu'il y a peut-être [br]deux forces. 0:06:46.680,0:06:49.000 D'un côté, chacun veut[br]se regarder dans la glace 0:06:49.000,0:06:51.900 et avoir bonne conscience, [br]donc nous ne voulons pas tricher. 0:06:51.900,0:06:54.130 De l'autre, nous pouvons [br]tricher un petit peu, 0:06:54.130,0:06:56.000 et continuer à avoir bonne conscience. 0:06:56.000,0:06:59.610 Peut-être il y a un niveau de tricherie[br]que nous ne pouvons pas dépasser, 0:06:59.610,0:07:03.000 mais nous pouvons quand même [br]bénéficier d'une faible dose de tricherie, 0:07:03.000,0:07:06.000 tant que ça ne perturbe pas [br]notre vision de nous-mêmes. 0:07:06.000,0:07:09.000 Nous appelons ça [br]un facteur de tricherie personnel. 0:07:10.000,0:07:14.000 Comment tester un facteur [br]de tricherie personnel? 0:07:14.000,0:07:17.940 Au début on a dit : comment [br]peut-on réduire le facteur? 0:07:17.940,0:07:20.000 On a amené des gens [br]au labo, et on a dit : 0:07:20.000,0:07:22.110 " Voici deux tâches [br]pour vous aujourd'hui." 0:07:22.110,0:07:23.730 On a demandé à la moitié des gens 0:07:23.730,0:07:26.140 soit de se rappeler 10 livres[br]qu'ils ont lus au lycée, 0:07:26.140,0:07:28.000 ou de se rappeler [br]les Dix Commandements, 0:07:28.000,0:07:30.000 et ensuite nous les avons tentés. 0:07:30.000,0:07:33.000 Les gens qui essayaient de se rappeler [br]les Dix Commandements -- 0:07:33.000,0:07:35.990 et dans notre échantillon, [br]personne n'y est arrivé -- 0:07:36.000,0:07:40.000 mais ceux qui ont essayé de se rappeler [br]les Dix Commandements, 0:07:40.000,0:07:42.670 avec l'opportunité de tricher, [br]n'ont pas du tout triché. 0:07:42.670,0:07:46.020 Non pas que les gens les plus religieux, [br]qui s'en rappelaient le plus, 0:07:46.020,0:07:48.000 trichaient moins,[br]et les moins religieux, 0:07:48.000,0:07:50.630 qui ne s'en rappelaient pas,[br]trichaient plus. 0:07:51.000,0:07:55.000 À partir du moment ou les gens pensaient [br]à se rappeler les Dix Commandements, 0:07:55.000,0:07:56.150 ils ne trichaient plus. 0:07:56.150,0:07:58.600 Même quand on a demandé [br]à des athées auto-proclamés 0:07:58.600,0:08:02.000 de jurer sur la bible et on leur a donné [br]une chance de tricher, 0:08:02.000,0:08:04.000 ils n'ont pas triché du tout. 0:08:06.000,0:08:09.330 Bon, les Dix Commandements, [br]c'est difficile dans le cadre scolaire, 0:08:09.330,0:08:10.190 donc on a dit : 0:08:10.190,0:08:12.570 " Si on faisait signer [br]le code d'honneur ? " 0:08:12.570,0:08:14.000 On a donc fait signer : 0:08:14.000,0:08:18.000 " J'accepte que cette courte étude [br]est tenue au code d'honneur du MIT. " 0:08:18.000,0:08:21.000 Puis ils l'ont déchiré. [br]Pas du tout de tricherie. 0:08:21.000,0:08:24.280 C'est très intéressant, surtout [br]que le MIT n'a pas de code d'honneur. 0:08:24.280,0:08:29.000 (Rires) 0:08:29.000,0:08:33.000 Donc, tout ça dans le but de réduire [br]le facteur de tricherie. 0:08:33.000,0:08:35.630 Et si on augmente [br]le facteur de tricherie ? 0:08:35.630,0:08:38.200 La première expérience : [br]je me suis baladé dans le MIT 0:08:38.200,0:08:41.080 et j'ai distribué des packs [br]de Coca dans les réfrigérateurs -- 0:08:41.080,0:08:43.330 des réfrigérateurs[br]en commun pour les étudiants. 0:08:43.330,0:08:46.000 Et je suis revenu pour mesurer [br]ce que nous appelions 0:08:46.000,0:08:50.000 la demi-vie du Coca -- combien de temps [br]il dure dans les réfrigérateurs? 0:08:50.000,0:08:53.280 Comme on s'y attend, il ne dure pas [br]longtemps. Les gens le prennent. 0:08:53.280,0:08:57.000 Par contraste, j'ai pris une assiette [br]avec six billets de un dollar, 0:08:57.000,0:08:59.740 et j'ai laissé ces assiettes [br]dans les mêmes frigos. 0:08:59.740,0:09:01.480 Aucun billet n'a jamais disparu. 0:09:01.480,0:09:04.460 Bon, ce n'est pas une bonne expérience [br]de science sociale, 0:09:04.460,0:09:07.000 donc pour faire bien, [br]j'ai refait l'expérience 0:09:07.000,0:09:09.000 que je vous ai décrite avant. 0:09:09.000,0:09:12.000 Un tiers de gens a eu la feuille [br]et nous l'a rendue. 0:09:12.000,0:09:14.550 Un tiers des gens a eu la feuille, [br]l'a déchirée, 0:09:14.550,0:09:16.000 est venu nous voir et a dit : 0:09:16.000,0:09:19.000 " Monsieur, j'ai résolu [br]X problèmes, donnez-moi X dollars." 0:09:19.000,0:09:22.370 Un tiers des gens, une fois qu'ils [br]avaient déchiré la feuille, 0:09:22.370,0:09:24.000 sont venu nous voir et dire : 0:09:24.000,0:09:30.000 " Monsieur, j'ai résolu [br]X problèmes, donnez moi X jetons. " 0:09:30.000,0:09:33.000 On ne les a pas payé avec des dollars[br]mais avec autre chose. 0:09:33.000,0:09:36.000 Ensuite ils ont pris l'autre chose, [br]ils ont marché 4 mètres, 0:09:36.000,0:09:38.000 et l'ont échangé contre des dollars. 0:09:38.000,0:09:40.000 Pensez à l'intuition suivante. 0:09:40.000,0:09:43.000 Quelle est la culpabilité [br]de voler un crayon au travail, 0:09:43.000,0:09:45.000 comparé à la culpabilité 0:09:45.000,0:09:47.000 de voler 10 cents dans une caisse? 0:09:47.000,0:09:50.000 Ces choses n'ont pas du tout [br]la même sensation. 0:09:50.000,0:09:53.000 Est-ce qu'en se distanciant[br]un instant de l'argent 0:09:53.000,0:09:56.000 en étant payé en jetons, [br]cela ferait une différence? 0:09:56.000,0:09:58.000 Nos sujets on doublé leur tricherie. 0:09:58.840,0:10:02.980 Je vais vous dire ce que je pense[br]de ça et de la bourse dans une minute. 0:10:03.000,0:10:07.000 Mais cela n'avait pas encore résolu [br]le gros problème que j'avais avec Enron, 0:10:07.000,0:10:09.540 parce que pour Enron, [br]il y a aussi un élément social. 0:10:09.540,0:10:11.240 On voit le comportement des autres. 0:10:11.240,0:10:13.200 Chaque jour, en regardant les nouvelles, 0:10:13.200,0:10:15.430 nous voyons des exemples [br]de gens qui trichent. 0:10:15.430,0:10:17.530 Quel est l'effet sur nous? 0:10:17.530,0:10:21.920 On a fait une autre expérience[br]avec un large groupe d'étudiants, 0:10:21.920,0:10:23.000 qu'on a pré-payés. 0:10:23.000,0:10:26.000 Chacun a eu une enveloppe [br]avec tout l'argent pour l'expérience, 0:10:26.000,0:10:28.000 et à la fin, on leur a demandé 0:10:28.000,0:10:31.870 de nous rembourser l'argent [br]qu'ils n'avaient pas gagné. 0:10:31.870,0:10:35.660 La même chose se passe: quand on donne [br]la possibilité de tricher, ils trichent. 0:10:35.660,0:10:38.030 Ils trichent juste un petit peu, [br]mais toujours. 0:10:38.030,0:10:41.090 Mais dans cette expérience on a aussi[br]engagé un étudiant acteur. 0:10:41.090,0:10:45.000 L'acteur s'est levé [br]au bout de 30 secondes, et a dit : 0:10:45.000,0:10:48.000 " J'ai tout résolu. [br]Je fais quoi maintenant? " 0:10:49.030,0:10:52.430 L'expérimentateur a dit : " Si vous avez [br]tout fini, rentrez chez vous. 0:10:52.430,0:10:53.630 La tâche est finie. " 0:10:53.630,0:10:57.000 Donc, maintenant on avait [br]un étudiant -- un étudiant acteur -- 0:10:57.000,0:10:59.000 qui faisait partie du groupe. 0:10:59.000,0:11:01.000 Personne ne savait [br]que c'était un acteur. 0:11:01.000,0:11:05.000 Et il avait clairement triché [br]très, très gravement. 0:11:05.000,0:11:08.000 Qu'adviendra-t-il[br]au reste du groupe ? 0:11:08.000,0:11:11.000 Ils vont tricher plus [br]ou ils vont tricher moins ? 0:11:11.000,0:11:13.000 Voilà ce qui s'est passé. 0:11:13.000,0:11:17.000 Il s'avère que ça dépend [br]du sweat-shirt qu'ils portent. 0:11:17.000,0:11:19.000 Voilà le truc. 0:11:19.000,0:11:22.000 On a fait ça à Carnegie Mellon, [br]à Pittsburgh. 0:11:22.000,0:11:24.280 A Pittsburgh, il y a [br]deux grandes universités, 0:11:24.280,0:11:27.000 Carnegie Mellon [br]et l'université de Pittsburgh. 0:11:27.000,0:11:29.000 Tous les sujets dans cette expérience 0:11:29.000,0:11:31.000 étaient des étudiants de Carnegie Mellon. 0:11:31.000,0:11:35.000 Quand l'acteur qui se levait [br]était un étudiant de Carnegie Mellon -- 0:11:35.000,0:11:37.000 c'était réellement le cas -- 0:11:37.000,0:11:41.000 il faisait partie de leur groupe, [br]et il y a eu plus de tricherie. 0:11:41.000,0:11:45.000 Mais quand il portait un sweat-shirt [br]de l'université de Pittsburgh, 0:11:45.000,0:11:47.000 la tricherie a baissé. 0:11:47.000,0:11:50.000 (Rires) 0:11:50.960,0:11:53.000 C'est important, [br]parce que, rappelez vous, 0:11:53.000,0:11:55.000 au moment ou l'étudiant se levait, 0:11:55.000,0:11:58.400 il était clair pour tout le monde [br]qu'on pouvait s'en tirer en trichant, 0:11:58.400,0:12:00.000 puisque l'expérimentateur a dit : 0:12:00.000,0:12:02.520 " C'est fini, rentrez "[br]et il est parti avec l'argent. 0:12:02.520,0:12:05.440 Ce n'était plus une question [br]du risque de se faire attraper. 0:12:05.440,0:12:07.860 C'était une question [br]de norme pour tricher. 0:12:07.860,0:12:11.000 Si quelqu'un de votre propre groupe [br]triche et on le voit tricher, 0:12:11.000,0:12:15.000 nous sentons que c'est plus approprié, en [br]tant que groupe, de se comporter comme ça. 0:12:15.000,0:12:17.430 Mais s'il est membre [br]d'un autre groupe, horrible -- 0:12:17.430,0:12:19.000 -- okay, pas horrible comme -- 0:12:19.000,0:12:21.000 mais quelqu'un à qui on ne s'associe pas, 0:12:21.000,0:12:23.000 d'une autre université, d'un autre groupe, 0:12:23.000,0:12:26.000 tout d'un coup la conscience [br]et l'honnêteté des gens remonte -- 0:12:26.000,0:12:28.350 comme pour l'expérience [br]des Dix Commandements -- 0:12:28.350,0:12:32.000 et les gens trichent encore moins. 0:12:32.000,0:12:36.000 Donc, qu'avons nous appris [br]de cela à propos de la tricherie? 0:12:36.000,0:12:39.000 Nous avons appris que beaucoup [br]de gens peuvent tricher. 0:12:39.000,0:12:41.840 Ils trichent juste un petit peu. 0:12:41.840,0:12:46.000 Quand nous rappelons aux gens [br]leur morale, ils trichent moins. 0:12:46.000,0:12:49.390 Quand nous accroissons [br]la distance d'avec la tricherie, 0:12:49.390,0:12:53.000 d'avec l'objet de l'argent, par exemple, [br]les gens trichent plus. 0:12:53.000,0:12:55.270 Et quand nous voyons tricher [br]autour de nous, 0:12:55.270,0:12:59.000 surtout si c'est dans notre groupe, [br]la tricherie augmente. 0:12:59.000,0:13:01.700 Maintenant, pensons à ça [br]en termes de la bourse, 0:13:01.700,0:13:03.230 pensons à ce qui se passe. 0:13:03.230,0:13:06.000 Qu'est-ce qui se passe [br]lorsqu'on créé quelque chose 0:13:06.000,0:13:08.000 où on paye des gens beaucoup d'argent 0:13:08.000,0:13:11.000 pour voir la réalité [br]d'une manière légèrement distordue? 0:13:11.000,0:13:14.000 Est-ce qu'ils ne serait pas capables [br]de la voir de cette façon? 0:13:14.000,0:13:15.000 Bien sûr que oui. 0:13:15.000,0:13:18.050 Qu'arrive-t-il quand [br]vous distanciez les choses de l'argent? 0:13:18.050,0:13:21.000 Vous les appelez actions, [br]ou stock options, produits dérivés, 0:13:21.000,0:13:22.650 créances hypothécaires titrisées. 0:13:22.650,0:13:25.000 Se pourrait-il qu'avec [br]ces choses plus distantes, 0:13:25.000,0:13:27.040 ce n'est pas un jeton [br]pendant une seconde, 0:13:27.040,0:13:30.890 c'est éloigné de l'argent par plusieurs[br]étapes pendant beaucoup plus longtemps -- 0:13:30.890,0:13:33.350 se pourrait-il que les gens [br]trichent encore plus? 0:13:33.350,0:13:35.290 Qu'arrive-t-il à l'environnement social 0:13:35.290,0:13:38.300 quand les gens voient le comportement [br]des autres autours d'eux? 0:13:38.300,0:13:42.000 Je pense que toutes ces forces [br]agissent d'une façon très mauvaise 0:13:42.000,0:13:44.000 dans la bourse. 0:13:44.000,0:13:47.000 Plus généralement, je veux [br]vous dire quelque chose 0:13:47.000,0:13:50.000 à propos de l'économie comportementale. 0:13:50.000,0:13:54.000 Nous avons beaucoup [br]d'intuitions dans notre vie, 0:13:54.000,0:13:57.000 et mon point est que beaucoup [br]de ces intuitions sont fausses. 0:13:57.000,0:14:00.000 La question est, allons-nous [br]tester ces intuitions? 0:14:00.000,0:14:02.450 Nous pouvons essayer [br]de tester cette intuition 0:14:02.450,0:14:04.720 dans notre vie privée [br]ou professionnelle, 0:14:04.720,0:14:07.410 et plus particulièrement [br]quand il s'agit de politiques, 0:14:07.410,0:14:10.000 comme 'No Child Left Behind', 0:14:10.000,0:14:13.000 de création de nouveaux marchés [br]boursiers, d'autres politiques, 0:14:13.000,0:14:16.000 d'imposition, de sécurité sociale, etc. 0:14:16.000,0:14:18.000 La difficulté de tester notre intuition 0:14:18.000,0:14:20.000 est la grande leçon que j'ai apprise 0:14:20.000,0:14:22.920 quand je suis retourné [br]pour parler aux infirmières. 0:14:22.920,0:14:27.000 pour leur dire ce que j'avais découvert [br]à propos du retrait des bandages. 0:14:27.000,0:14:29.000 Et j'ai appris deux choses intéressantes. 0:14:29.000,0:14:31.250 Premièrement, [br]mon infirmière favorite, Ettie, 0:14:31.250,0:14:35.000 m'a dit que je ne prenais pas [br]en compte sa douleur : 0:14:35.000,0:14:37.000 " Bien sûr, c'était douloureux pour toi. 0:14:37.000,0:14:38.910 Mais pense à moi [br]en tant qu'infirmière, 0:14:38.910,0:14:41.910 qui retirais les bandages [br]de quelqu'un que j'aimais bien, 0:14:41.910,0:14:44.000 pendant une longue [br]période de temps. 0:14:44.000,0:14:47.000 Créer autant de torture [br]ne me faisait pas de bien non plus. " 0:14:47.000,0:14:52.000 Peut-être que c'était en partie [br]parce que c'était difficile pour elle. 0:14:52.000,0:14:55.000 Mais c'était encore plus intéressant, [br]parce qu'elle a dit : 0:14:55.000,0:14:59.160 " Je ne pensais pas [br]que ton intuition était correcte. 0:14:59.160,0:15:01.200 Pour moi, [br]mon intuition était correcte. " 0:15:01.200,0:15:03.000 Pensez à toutes vos intuitions : 0:15:03.000,0:15:07.000 c'est très difficile de croire [br]que votre intuition est fausse. 0:15:07.000,0:15:10.000 Elle a dit : " Puisque je pensais [br]mon intuition correcte " -- 0:15:10.000,0:15:12.310 elle pensait que [br]son intuition était bonne -- 0:15:12.310,0:15:17.270 il était difficile pour elle d'accepter [br]de faire une expérience difficile 0:15:17.270,0:15:19.510 juste pour voire si [br]elle avait peut-être tort. 0:15:19.510,0:15:23.000 C'est la situation dans laquelle [br]nous sommes tout le temps. 0:15:23.000,0:15:26.000 Nous avons des intuitions [br]très fortes sur plein de choses -- 0:15:26.000,0:15:29.000 notre propre capacité, [br]comment marche l'économie, 0:15:29.000,0:15:31.000 comment nous devrions [br]payer les enseignants. 0:15:31.000,0:15:34.000 Mais à moins que nous ne [br]commencions à tester ces intuitions, 0:15:34.000,0:15:35.640 nous ne ferons pas mieux. 0:15:35.640,0:15:37.770 Pensez à combien ma vie [br]aurait été meilleure 0:15:37.770,0:15:40.540 si ces infirmières avaient voulu [br]vérifier leur intuition, 0:15:40.540,0:15:42.420 et combien tout serait meilleur 0:15:42.420,0:15:46.000 si nous commencions [br]à tester nos intuitions systèmatiquement. 0:15:46.000,0:15:48.000 Merci beaucoup.