Informations

Comment l'évolution contourne-t-elle le problème combinatoire ?

Comment l'évolution contourne-t-elle le problème combinatoire ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Imaginez un arbre combinatoire montrant tous les arrangements possibles de nucléotides. Certaines dispositions sont fonctionnel, ce qui signifie qu'ils peuvent être branchés sur une cellule et créer un organisme vivant capable de se reproduire. Certaines dispositions sont non fonctionnel, ce qui signifie qu'ils ne peuvent soutenir aucun système vivant.

Dans l'évolution, de nouvelles informations sont créées à la suite de ce qui est essentiellement une accumulation d'erreurs de copie. Ma question est, le rapport des arrangements fonctionnels aux arrangements non fonctionnels devrait-il être relativement grand pour qu'assez d'informations génétiques puissent apparaître en réponse à la sélection naturelle ? Si oui, quelles études scientifiques ont conduit les biologistes à conclure que cet espace combinatoire est riche en arrangements fonctionnels. Si ce n'est pas nécessaire, veuillez expliquer pourquoi.


Non, avec quelques mises en garde. Tout d'abord, à propos de la valeur réelle du rapport : il est probablement minuscule, avec presque toutes les séquences génétiques possibles ne conduisant pas à des organismes vivants.

Pourquoi cela ne rend-il pas l'évolution impossible ? Chaque séquence peut avoir des milliards* de voisins dans l'espace des séquences. Si même un très petit nombre d'entre eux sont fonctionnels, l'évolution peut se poursuivre. Plus important encore, les séquences fonctionnelles sont regroupées dans l'espace des séquences. Si vous choisissez 3 milliards de nucléotides au hasard, vous obtiendrez un non-sens, mais si vous faites muter un seul nucléotide chez un humain, vous obtiendrez probablement un humain parfaitement bon.

Cependant, il y a des questions ouvertes intéressantes ici, en particulier concernant l'origine de la vie, et si la sélection naturelle a tendance à conduire les populations vers des régions de l'espace des séquences qui sont particulièrement denses avec des séquences fonctionnelles.

* Je regarde juste les mutations ponctuelles. L'inclusion du spectre mutationnel complet en donne beaucoup plus.


le rapport des arrangements fonctionnels aux arrangements non fonctionnels devrait-il être relativement grand pour qu'assez d'informations génétiques puissent apparaître en réponse à la sélection naturelle ?

L'évolution n'explore certainement pas toutes les combinaisons possibles d'un ADN. Il suffit d'essayer des choses. Bien sûr, un nouveau gène n'est pas nécessairement recréé à partir de zéro. Un gène est souvent copié puis les deux copies peuvent diverger (c'est ce qu'on appelle la néo-fonctionnalisation).

Donc, non, l'espace de toutes les possibilités n'est pas exploré mais ce n'est en aucun cas un problème. Ce n'est pas comme si une mutation ferait sortir une toute nouvelle séquence du vide et espérer qu'elle soit bénéfique. Un chemin est pris à travers cet espace de possibilité.


"Est-ce que le rapport des arrangements fonctionnels aux arrangements non fonctionnels devrait être relativement grand pour que suffisamment d'informations génétiques puissent survenir en réponse à la sélection naturelle ?"

Oui c'est très grand. Parce que la plupart des mutations sont des mutations synonymes. Jetez un œil à la partie sur la dégénérescence du code génétique.

Une autre raison, et celle-ci ne fait qu'aider l'évolution à avancer, s'appelle la duplication de gènes. De nombreuses protéines dans un génome sont dupliquées, ce qui signifie qu'il y a une certaine redondance impliquée. Si nous supprimons une protéine, la forme physique de l'organisme peut/peut ne pas être affectée, mais la survie ne sera pas affectée. Un exemple qui me vient à l'esprit est l'Histone H1 (parce que j'ai un peu étudié à ce sujet). Pour affecter clairement un changement, nous devons supprimer au moins trois gènes H1, moins et l'une de ses variantes agit en remplacement.

En prime, l'évolution ne conduit pas toujours à la meilleure combinaison possible, elle conduit à des combinaisons fonctionnelles.


Comment l'évolution contourne-t-elle le problème combinatoire ? - La biologie

Tous les articles publiés par MDPI sont rendus immédiatement disponibles dans le monde entier sous une licence en libre accès. Aucune autorisation particulière n'est requise pour réutiliser tout ou partie de l'article publié par MDPI, y compris les figures et les tableaux. Pour les articles publiés sous licence Creative Common CC BY en libre accès, toute partie de l'article peut être réutilisée sans autorisation à condition que l'article original soit clairement cité.

Les articles de fond représentent la recherche la plus avancée avec un potentiel important d'impact élevé dans le domaine. Les articles de fond sont soumis sur invitation individuelle ou sur recommandation des éditeurs scientifiques et font l'objet d'un examen par les pairs avant leur publication.

L'article de fond peut être soit un article de recherche original, une nouvelle étude de recherche substantielle qui implique souvent plusieurs techniques ou approches, ou un article de synthèse complet avec des mises à jour concises et précises sur les derniers progrès dans le domaine qui passe systématiquement en revue les avancées les plus passionnantes dans le domaine scientifique. Littérature. Ce type d'article donne un aperçu des orientations futures de la recherche ou des applications possibles.

Les articles du Choix de l'éditeur sont basés sur les recommandations des éditeurs scientifiques des revues MDPI du monde entier. Les rédacteurs en chef sélectionnent un petit nombre d'articles récemment publiés dans la revue qui, selon eux, seront particulièrement intéressants pour les auteurs ou importants dans ce domaine. L'objectif est de fournir un aperçu de certains des travaux les plus passionnants publiés dans les différents domaines de recherche de la revue.


Les expériences génétiques de Mendel

L'arrivée de Gregor Mendel à l'abbaye Saint-Thomas fut un coup de chance pour son abbé. Cyril Napp avait déjà décidé que comprendre « ce qui est hérité et comment » était la clé de l'étude de l'hybridation [_1_] . Répondre à cette question nécessiterait quelqu'un avec beaucoup de patience et une attention inhabituelle aux détails. Cette personne était Gregor Mendel.

Gregor Mendel a repris le jardin de recherche du monastère de son mentor, frère Klacel, en 1846. Le jardin de recherche est illustré ci-dessous. Klacel avait étudié l'hérédité et la variation des pois [_2_] . Gregor Mendel se concentrerait également sur les pois, peut-être influencé par son mentor. Ce choix était très important pour son succès éventuel. Les plants de pois ont des caractéristiques facilement identifiables, peuvent s'autoféconder et sont facilement empêchés de se fertiliser. Alors que le choix du plant de pois a rendu le succès plus probable, lui et son équipe ont encore dû surmonter de nombreux obstacles.

Gregor Mendel a rencontré des problèmes dès le départ. Si vous autofécondez des plants de pois de grande taille, ils produiront toujours des plants de grande taille même sur plus d'une génération. Mais si vous autofécondiez d'autres plantes de pois de grande taille, elles produiraient principalement des plantes de grande taille, mais quelques plantes naines. Bien que les plantes aient semblé similaires (même phénotype, grande taille), elles étaient manifestement différentes génétiquement (génotypes différents). Des problèmes similaires se sont produits avec chaque trait qu'il testait. Mendel savait qu'il devait commencer avec un ensemble de plantes qui, une fois autocroisées, produiraient toujours le même phénotype. Développer cet ensemble de une vraie sélection les usines ont pris deux ans [_3_] .

Après avoir développé son ensemble de plantes génétiquement modifiées, Mendel et ses assistants ont passé des années à faire 29 000 croisements à travers plusieurs générations de plantes. Cette fertilisation croisée était un travail fastidieux. Les plants de pois ont des organes mâles et femelles. Pour fertiliser les plants de pois, vous devez vous assurer qu'ils ne s'autofécondent pas d'abord. Mendel a opéré chaque plante cible en coupant les organes mâles (étamines) alors que la plante était encore immature. Au moment de la fécondation croisée, Gregor Mendel et ses assistants ont utilisé un pinceau pour retirer du pollen des anthères de la plante donneuse et ont peint le pollen sur le stigmate (partie de la structure reproductrice femelle) de la plante cible. Un sac a ensuite été enroulé autour de la fleur pour empêcher d'autres pollens d'atterrir sur le stigmate.

L'argent dépensé par l'abbaye de Saint-Thomas pour envoyer Mendel à l'Université de Vienne a été rentable à la fois dans la conception des expériences de Mendel et dans l'analyse des résultats. L'un de ses professeurs était un physicien renommé, Christian Doppler. Mendel aurait appris la conception d'expériences physiques. Les manuels de mathématiques de Doppler contenaient des sections sur la théorie combinatoire et l'utilisation des probabilités. L'une des innovations de Mendel était de considérer l'hérédité des traits comme un événement aléatoire et d'analyser les résultats en fonction des probabilités. Les événements aléatoires, les statistiques et les probabilités faisaient partie du langage utilisé par les physiciens du XIXe siècle, mais pas par les biologistes du XIXe siècle. [_4_]

On peut suivre la logique de Mendels en suivant une de ses expériences. Mendel a pris des plants de pois de race pure qui ne produisaient que des pois jaunes et les a croisés avec des plants de pois de race pure qui ne produisaient que des pois verts. Tous les descendants avaient des graines jaunes. Le trait vert avait complètement disparu. Ensuite, Mendel a pris cette première génération (F.1) et les a autocroisés. Le trait vert est réapparu. 6022 des descendants de la deuxième génération (F.2) avaient des graines jaunes et 2001 des graines vertes. Le matériel génétique des plantes à graines vertes doit avoir été conservé dans la première génération. Il était masqué par quelque chose de plus puissant... le matériel génétique qui a codé les graines jaunes. Les plantes à graines jaunes étaient dominantes et les plantes à graines vertes étaient récessives. Le ratio des résultats de la deuxième génération est très proche de 3:1. Ce rapport peut s'expliquer si l'héritage des traits dépendait d'éléments appariés qui sont recombinés (et non mélangés comme le croyait Darwin) dans la progéniture. Dans cette expérience, une paire jaune-vert apparaîtrait comme un pois jaune. Mais si nous croisions de nombreuses plantes jaune-vert, nous ne pourrions obtenir que 4 permutations différentes jaune-jaune, jaune-vert, vert-jaune et vert-vert. Trois d'entre eux donnent des pois jaunes, et un seul, le Vert-Vert, donne des pois verts. Le diagramme ci-dessous (tiré d'un premier livre de Thomas Hunt Morgan) illustre la génétique mendélienne à travers deux générations (F.1 et F.2) .

Pourquoi Mendel a-t-il utilisé un si grand nombre de croix dans ses expériences ? Mendel avait besoin de grands échantillons pour produire une confiance plus élevée dans le rapport 3:1. Si Mendel avait utilisé des échantillons plus petits, son travail aurait été de peu de valeur. Charles Darwin avait mené des expériences similaires avec des mufliers, mais en raison de sa mauvaise compréhension de l'échantillonnage, il n'avait utilisé que 125 croisements. Son résultat de 2,4:1 aurait pu être interprété comme un ratio de 2:1 ou un ratio de 3:1 ( Darwin, Mendel et Statistics). La génétique mendélienne a contribué à soutenir une tendance vers une approche plus mathématique en biologie.

Les travaux de Gregor Mendel sur la génétique ont finalement été publiés sous le titre "Experiences in Plant Hybridization" dans le Actes de la Société d'histoire naturelle de Brüumlnn en 1866. Personne ne semblait s'en soucier. Le papier a été rarement mentionné au cours des 35 années suivantes. Il allait radicalement changer le domaine de la biologie lorsqu'il fut redécouvert vers 1900.


Résultats et discussion

Anatomie d'un ensemble autocatalytique

Kauffman ([11] pp. 2-3) définit un ensemble autocatalytique comme un arrangement de molécules dans lequel « chaque membre de l'ensemble autocatalytique a au moins une des dernières étapes possibles de sa formation catalysée par un membre de l'ensemble, et que les séquences connectées de réactions catalysées mènent de l'« ensemble alimentaire » maintenu à tous les membres de l'ensemble autocatalytique". Ceci est défini plus formellement par Hordijk et Steel [23, 24], qui déclarent qu'un R (sous)ensemble de réactions est appelé (je) réflexivement autocatalytique (RA) si chaque réaction dans R est catalysée par au moins une molécule impliquée dans l'une des réactions dans R, (ii) d'origine alimentaire (F) si chaque réactif dans R peut être construit à partir d'un petit « nourriture » ​​par des applications successives de réactions de R, et (iii) autocatalytique réflexive et d'origine alimentaire (RAF) si les deux RA et F.

Le concept d'ensemble autocatalytique ou RAF, bien qu'important pour les questions d'auto-organisation, n'aborde pas directement l'hérédité ou la sélection [24]. Cependant, un tel ensemble peut être divisé en un ou plusieurs noyaux autocatalytiques fortement connectés et leurs périphéries, et nous proposons que ces noyaux soient les unités d'adaptations héréditaires dans les réseaux réactionnels (pour les motifs de réseaux chimiques voir la figure 1 et pour un exemple spécifique voir la figure 2). Un noyau peut être considéré comme un génotype de réseau chimique et sa périphérie correspondante comme un phénotype de réseau chimique (bien que sans cartographie modulaire ou compositionnelle entre eux). Un cœur autocatalytique (que nous abrégeons désormais en « cœur ») contient une ou plusieurs boucles autocatalytiques liées [18]. Les boucles autocatalytiques sont des chemins circulaires fermés de n'importe quelle longueur où chaque molécule de la boucle dépend de la précédente pour sa production (Figure 1). Dans le noyau, toutes les espèces catalysent la production de toutes les autres espèces, y compris elles-mêmes, ce qui signifie qu'elles sont indirectement autocatalytiques (Figure 1). La périphérie est constituée d'espèces moléculaires catalysées par le cœur (figure 1). La fourniture de n'importe quelle molécule d'espèce de noyau est suffisante pour produire toutes les espèces de noyau et les espèces de périphérie de ce noyau, en d'autres termes, toutes les molécules de noyau contiennent les informations nécessaires pour allumer et entretenir le noyau et la périphérie autocatalytiques et peuvent donc agir comme semence autocatalytique. Ce n'est pas le cas des molécules périphériques qui dépendent, comme un phénotype de son génotype, du noyau. Notez qu'un ensemble autocatalytique ou RAF tel que défini ci-dessus peut contenir un nombre quelconque d'unités cœur-périphérie distinctes (Figure 1) et les combinaisons structurellement et cinétiquement possibles de ces unités définissent différents états stables alternatifs du même réseau chimique (Figure 2).

Classification de divers modules de réseau au sein d'ensembles autocatalytiques. food1-food6 : ensemble alimentaire supposé présent à tout moment, A-D : espèces non alimentaires générées par des réactions de ligature/clivage. Lignes pleines : réactions lignes en pointillés : activités catalytiques. Les lignes pointillées oranges montrent les boucles autocatalytiques superposées. (UNE) Les autocatalyseurs viables (A dans les trois exemples) sont les unités nécessaires à la croissance exponentielle d'un autocatalyseur, contrairement aux autocatalyseurs suicidaires (B dans les trois exemples) qui utilisent des réactifs uniquement produits par la réaction autocatalytique elle-même. (B) Une espèce moléculaire peut être directement autocatalytique, formant une boucle autocatalytique à un membre, ou plusieurs espèces peuvent former des boucles de différentes tailles qui entraînent une autocatalyse indirecte. (C) Une boucle est autocatalytique - et capable de croître de façon exponentielle - tant qu'au moins une des étapes est une dépendance catalytique. Une boucle peut donc être constituée uniquement de couplages catalytiques ou mixtes. () Un cœur autocatalytique contient une ou plusieurs boucles liées. Notez que tout membre d'un noyau (A et B dans les trois exemples) est suffisant pour agir comme une graine pour le noyau. Plusieurs noyaux distincts peuvent se former au sein d'un réseau de réaction catalytique. Certains peuvent exister indépendamment des autres noyaux, tandis que les noyaux dépendants dépendent d'autres comme source de nourriture ou catalyseurs. (E) Un cœur autocatalytique est typiquement associé à une périphérie dépendante du cœur (C et D dans le premier exemple). Il est également possible qu'une périphérie moléculaire n'apparaisse que si deux ou plusieurs cœurs sont présents (D dans le deuxième exemple). Nous proposons que les noyaux autocatalytiques soient les unités d'adaptation héréditaire dans les réseaux chimiques.

Des noyaux multiples donnent des attracteurs sélectionnables pour un réseau chimique. food1-food11 : ensemble alimentaire supposé présent à tout moment, A-H : espèces non alimentaires générées par des réactions de ligature/clivage. Lignes pleines : réactions lignes en pointillés : activités catalytiques. Les pointillés oranges montrent les boucles autocatalytiques superposées. Considérations structurelles : Les ensembles autocatalytiques peuvent contenir plusieurs unités autocatalytiques distinctes, chacune pouvant être divisée en un noyau de molécules autocatalytiques et une périphérie. Ici, deux noyaux indépendants sont représentés. Le premier se compose des deux boucles liées A → A et A → B → A. Le deuxième noyau comprend les deux boucles liées C → C et C → D → E → C, avec la périphérie de F et G. H est le périphérie des deux noyaux qui nécessite à la fois pour sa production. Considérations dynamiques : Ce réseau réactionnel platonique peut se manifester par quatre compositions stables possibles des unités cœur-périphérie : (i) pas de cœurs (uniquement des espèces alimentaires) (ii) uniquement le premier cœur (A, B zone jaune) (iii) uniquement le deuxième cœur (C, D, E, F, G zone bleue) (iv) les deux noyaux (toutes les espèces). Imaginez maintenant que nous ayons un compartiment qui ne contient que des espèces alimentaires, mais de rares réactions non catalysées entre elles sont possibles. L'apparence non catalysée de n'importe quelle molécule d'espèce de noyau est suffisante pour produire toutes les espèces de noyau et les espèces de périphérie de ce noyau, par ex. soit A ou B pour le premier noyau et soit C, D, E pour le second. Supposons maintenant qu'après avoir atteint une certaine taille, un compartiment contenant les deux noyaux se divisera et produira des propagules. Si ni C, D ou E n'est présent dans le compartiment fille, le deuxième noyau est perdu et les molécules restantes de sa périphérie seront éliminées du compartiment. La découverte de noyaux par des réactions rares et la perte de noyaux par instabilité de ségrégation ouvrent la possibilité à un réseau de réactions chimiques de répondre à la sélection naturelle.

Après avoir défini un cœur autocatalytique comme un ensemble de boucles autocatalytiques connectées, il est important de distinguer les types possibles de telles boucles (Figure 1). Typiquement, le cycle de réactions est couplé par des dépendances catalytiques. Cependant, comme l'a montré Eigen [18], le cycle conserve ses propriétés autocatalytiques tant qu'au moins une des étapes est catalytique (une idée qui a été manquée par les modèles précédents dans [11, 23]). Toutes les autres étapes peuvent être des dépendances du substrat où le produit de l'étape précédente sert de précurseur pour la réaction suivante (par exemple, considérons la dépendance de Y sur X dans la réaction A + X ← → Y Figure 1). Autrement dit, une réaction où le produit n'est pas consommé mais sert de catalyseur suffit à l'augmentation exponentielle de la masse du cycle. Il peut être trompeur de se concentrer uniquement sur les molécules autocatalytiques directes ou indirectes également, en raison de la possibilité de ce que nous appelons des autocatalyseurs suicidaires [13]. Une molécule autocatalytique peut être suicidaire au sens cinétique. En gardant à l'esprit que toutes les réactions dans les ensembles autocatalytiques de biopolymères [11] sont supposées être réversibles, considérons la réaction autocatalytique simple A + X ←→ 2A. Si X n'est pas présent (ou présent en très faible concentration) cette réaction ira dans le sens d'une auto-décomposition, dans une forme de cycle auto-inhibiteur (Figure 1). De tels autocatalyseurs suicidaires sont évidemment incapables d'une croissance exponentielle, caractéristique même qui donne à l'autocatalyse sa signification évolutive. Cependant, une molécule autocatalytique viable, soit directement autocatalytique, soit intégrée dans une boucle autocatalytique plus longue, croît de manière exponentielle.Notez que des exemples assez similaires d'autocatalyseurs viables et suicidaires peuvent être trouvés dans la biochimie contemporaine : alors que le cycle de Calvin est un réseau de production de sucre autocatalytique, la voie des pentoses phosphates est un exemple de décomposition auto-inhibiteur des phosphates de sucre [25]. Des boucles autocatalytiques viables sont nécessaires mais pas suffisantes pour l'évolution par sélection naturelle des réseaux autocatalytiques, comme nous le verrons plus loin.

Formation spontanée d'ensembles autocatalytiques dans une chimie des polymères

Le modèle mathématique original des ensembles autocatalytiques [11] suppose ce qui suit : (je) il existe un grand ensemble alimentaire de polymères abondants naturellement formés dans l'environnement jusqu'à un faible niveau de complexité, c'est-à-dire jusqu'à la longueur M composé de B types de monomères (par ex. a, b, aa, bb) (ii) chaque molécule a une certaine probabilité P de catalyser chaque réaction de ligature-clivage. Le modèle suppose une discriminabilité infinie, en d'autres termes, une molécule catalyse ou ne catalyse pas une réaction particulière sans variation quantitative de l'efficacité. Cependant, il ne suppose pas de spécificité, car un catalyseur catalyse généralement un certain nombre de réactions (en moyenne, P fraction des réactions possibles). Il a été démontré qu'au-dessus d'un certain seuil de probabilité catalytique une réaction en chaîne est déclenchée et en raison de la fermeture catalytique des ensembles autocatalytiques apparaissent [11].

Hordijk et Steel [23] ont vérifié cette affirmation en générant des réseaux aléatoires de réactions de ligature/clivage réversibles entre les cordes jusqu'à la longueur m = 20, où chaque molécule a la probabilité P de catalyser chaque réaction. Aux faibles valeurs de P ils ont trouvé des ensembles non connectés utilisant des ensembles d'aliments séparés, mais à des valeurs plus élevées, un phénomène de percolation a produit des ensembles autocatalytiques entièrement connectés. L'agriculteur et ses collègues [12, 14] ont été les premiers à mettre en œuvre le modèle mathématique original et ont confirmé qu'un réseau de réaction supracritique qui continue de croître avec une vitesse accélérée surgit au-dessus d'une certaine probabilité catalytique. P c. En contraignant le réseau de réaction catalytique croissant dans un réacteur à flux à masse finie et seuil de concentration inférieur (le scénario pertinent étant ici d'étudier la question de l'évolutivité dans les systèmes compartimentés), ils ont mis en place un modèle chimique où la taille du réseau chimique montre croissance au-dessus P c. Notre tâche initiale était de corroborer ces résultats et d'étudier la structure sous-jacente du réseau de réaction catalytique (les méthodes sont décrites en détail dans le dossier supplémentaire 1). Nous avons constaté que lorsque les réseaux grandissent, ils forment un grand noyau autocatalytique composé de toutes les espèces moléculaires au-dessus du seuil de concentration. Cependant, les noyaux autocatalytiques sont principalement constitués d'autocatalyseurs suicidaires, car seule une petite minorité d'espèces autocatalytiques utilisent des réactifs valides dans les réactions autocatalytiques et forment ainsi des boucles viables (voir Figure 1). Notez que bien que le nombre de boucles viables augmente avec la taille du système, elles se trouvent toujours dans le même noyau viable et ne peuvent donc pas être des cibles indépendantes pour la sélection naturelle (voir le fichier supplémentaire 1). En conclusion, nous étayons la spéculation [1] selon laquelle un réseau auto-entretenu de réactions -un métabolisme primitif autocatalytique- apparaît dans ce modèle minimal de chimie des polymères (Figure 3).

Émergence d'un réseau auto-entretenu de réactions dans un réacteur à flux. (UNE) Les carrés montrent les seuils critiques de croissance sous-critique (carrés vides) ou supracritique (carrés colorés) du réseau réactionnel en fonction du disque de cuisson (longueur maximale des espèces moléculaires dans l'ensemble alimentaire) et de la probabilité P qu'une espèce catalyse une réaction spécifique. L'obscurité d'un carré reflète la proportion de 100 analyses dans lesquelles le réseau a dépassé l'une des conditions suivantes : > 2 × 10 7 réactions ou > 10 5 espèces moléculaires (notez que dans tout système fini, le réseau de réaction ne peut pas être exploré à l'infini en raison de contraintes de masse). (B) Le paramètre crucial P a été décomposé en ses deux probabilités élémentaires : P' (la probabilité qu'une espèce puisse être catalytique) et P'' (la probabilité par réaction que ce catalyseur catalyse une réaction). Lorsque P' diminue P'' doit être considérablement plus élevé pour que les réseaux de réaction continuent de croître, mais il existe un seuil au-dessus duquel les réseaux catalytiques se développent de manière supracritique. (C) Une faible inhibition n'empêche pas la formation de grands réseaux de réaction catalytique. Pour les valeurs de P qui produisent une croissance du réseau catalytique, une forte inhibition non compétitive est introduite en choisissant avec probabilité K qu'une espèce élimine une autre espèce du réacteur complètement si au moins une molécule de l'espèce inhibitrice existe (il s'agit clairement d'une hypothèse du pire des cas). A gauche : croissance supracritique sans inhibition. Milieu : une faible inhibition entraîne une alternance de phases de croissance rapide et lente. A droite : une forte inhibition rend le réseau sous-critique.

Notre tâche suivante consistait à vérifier que l'affirmation précédente restait vraie face aux critiques antérieures du modèle. Ainsi, un paramètre critique dans le modèle est la probabilité P que chaque molécule peut catalyser chaque réaction de ligature-clivage, qui était supposée constante. Cette hypothèse a conduit à l'objection sérieuse que le modèle impliquait une probabilité irréaliste élevée (de un) qu'un peptide puisse agir comme un catalyseur [26] : lorsque la longueur maximale M de polymères dans l'ensemble augmente, le nombre de réactions (((M-2) × 2 M+1 ) [11]) augmente plus vite que le nombre de molécules (N ≈ 2 M+1 ), donc toutes les molécules deviennent rapidement catalytiques - un résultat qui est clairement très irréaliste. Pour remédier à la situation, le paramètre P doit être un composé de deux probabilités : la probabilité P' que la molécule est un catalyseur, et la probabilité P" qu'une molécule catalyse une réaction donnée [26]. Nous avons mis en œuvre cette critique, mais avec la mise en garde qu'il est peu probable qu'un catalyseur ne puisse catalyser qu'une seule des innombrables réactions possibles, comme suggéré par Lifson [26], suivant les hypothèses de ([1] p. 306). c'est-à-dire définir

il est implicitement affirmé que la probabilité qu'un catalyseur catalyse une réaction donnée n'est pas indépendante de la probabilité qu'il catalyse une autre réaction - mais pourquoi considérer un espace de réaction plus grand rendrait la catalyse moins probable ? À notre avis, un scénario plus raisonnable consiste à supposer que P' est défini comme ci-dessus, mais P" est désormais considéré comme le par réaction probabilité qu'un catalyseur catalyse la réaction. Lorsque nos simulations précédentes ont été ré-implémentées avec une constante P' et P" valeurs, il a été constaté que lorsque le rapport des catalyseurs (P') diminue, la probabilité de catalyse (P") doit être considérablement plus élevé pour que les réseaux de réaction continuent de croître (Figure 3A et 3B). Par conséquent, même s'il n'existe aucune chimie des polymères aléatoires connue dans laquelle ces probabilités soient aussi élevées que nécessaire pour une croissance supracritique - certainement pas des polypeptides aléatoires [27]-, nous concluons que la critique de Lifson [26] reste quantitative, laissant ouverte la possibilité que s'il était possible d'obtenir de tels catalyseurs, le réseau catalytique pourrait encore se former spontanément.

Une deuxième objection au modèle était que les ensembles autocatalytiques n'auraient pas pu être formés spontanément en raison du « paradoxe de la spécificité », c'est-à-dire qu'un nombre élevé de molécules est nécessaire pour l'émergence spontanée d'un réseau auto-entretenu de réactions [1], mais l'effet néfaste des réactions secondaires qui devraient augmenter avec un ensemble croissant appelle une petite taille du système [28]. Une façon de vérifier si les effets nocifs des réactions secondaires dans les ensembles autocatalytiques émergents spontanément pourraient inhiber la croissance du réseau est d'introduire une forte inhibition non compétitive. Il est facile d'imaginer qu'une espèce élimine une autre espèce du réacteur par une réaction secondaire, et nous avons choisi de mettre en œuvre le scénario le plus strict possible où une molécule d'inhibiteur élimine complètement l'espèce inhibée. D'une manière analogue à la détermination des réactions catalytiques, chaque molécule a inhibé l'une des autres molécules avec la probabilité K. Une espèce peut donc être à la fois un inhibiteur et avoir également d'autres effets catalytiques positifs. Il est à noter que l'inhibition compétitive apparaît déjà dans le modèle dans le cas où un catalyseur utilise un autre catalyseur comme substrat, et il n'est donc pas nécessaire de l'ajouter explicitement. À des niveaux élevés d'inhibition (par ex. K = 0,01) la conséquence est de convertir ce qui aurait été un réseau supracritique en un réseau sous-critique. Cependant, à des niveaux inférieurs (par ex. K = 0,001) les effets de l'empoisonnement n'empêchent pas radicalement la croissance supracritique, mais les réseaux se développent de manière non monotone en raison de la perte de certains catalyseurs à cause de l'inhibition (figure 3C). Nous concluons donc que l'inhibition n'empêche pas qualitativement la formation de grands réseaux de réaction catalytique. Pour résumer, la formation d'ensembles autocatalytiques est robuste contre les deux principales critiques qui ont été soulevées contre le modèle.

Toutes les simulations précédentes supposaient que seules les réactions catalysées se produisent dans le réacteur à écoulement. Bagley et ses co-auteurs [14, 15] ont modélisé l'arrière-plan des réactions non catalysées sous forme de fluctuations spontanées qui ont entraîné l'apparition rare de sous-graphes autocatalytiques à partir de l'ombre de réactions existantes (sous-ensemble d'espèces pouvant être produites à partir d'espèces existantes dans des réactions non catalysées), une approche que nous trouvons problématique car (i) elle suppose déjà sans preuve que des boucles autocatalytiques sont présentes et (ii) elle ne permet que des boucles où chaque étape est catalytique, écartant une grande variété d'organisations possibles. Afin d'éviter ce défaut, nous avons simulé directement les réactions non catalysées. Dans notre modèle, de rares réactions non catalysées produisent de nouvelles espèces aléatoires en faible nombre de copies à partir de l'ombre, et si la nouvelle molécule s'avère être un catalyseur, elle générera une avalanche chimique d'autres nouvelles espèces moléculaires catalysées directement et indirectement. Comme prévu, nous avons constaté que seules ces espèces sont capables de rejoindre de manière permanente le réseau qui finit par catalyser leur propre production à partir de molécules déjà existantes et ainsi produire une boucle autocatalytique viable (voir Figure 2). De telles boucles viables définissent un nouveau noyau distinct au sein de l'ensemble autocatalytique. Un tel nouveau noyau n'est que rarement produit, du moins dans les petits réseaux que nous avons simulés, mais la probabilité de leur apparition spontanée dépend de la taille de l'ombre et devrait augmenter avec la taille du réseau et P. Il existe donc une tendance intrinsèque lente à l'augmentation de la masse définie non alimentaire par l'incorporation rare de boucles viables dans le réseau, ce qui entraîne également une augmentation de la complexité (figure 4, fichier supplémentaire 1). Cette apparition de nouveaux noyaux est une propriété critique comme nous le verrons par la suite.

Augmentation persistante de la masse fixée non alimentaire en raison de nouvelles boucles viables. Nous avons simulé 460 courses d'une durée de 30 000 étapes de croissance chacune, avec la taille de l'ensemble de nourriture M = 4, P' = 0,75, P'' = 0,0025, K = 0 (sans inhibition), mais avec l'émergence spontanée d'espèces nouvelles rares à partir de réactions non catalysées. 5 des 460 passages ont montré des augmentations persistantes de la masse fixe non alimentaire (B). Cela était toujours dû à l'incorporation d'au moins une boucle viable. (UNE) Exemple d'organisation de boucle viable utilisée dans les simulations évolutives. Lignes pleines : réactions lignes en pointillés : activités catalytiques. Les lignes pointillées orange montrent la boucle autocatalytique superposée. Le réseau d'origine, sur le côté gauche de la ligne bleue, n'est pas représenté en détail.

Evolutivité des réseaux chimiques enfermés dans des compartiments

Notre prochaine étape a été d'aborder la question de l'évolutivité lorsque les réseaux de réactions chimiques sont confinés dans un petit volume (compartiment). Maintenant, la question est : que faut-il pour que les réseaux chimiques subissent une évolution darwinienne ? Comme le soulignent Gánti [29] et Wächtershäuser [30, 31], si distinct, différent sur le plan organisationnel, alternative autocatalytique les réseaux peuvent coexister dans le même environnement, ils pourraient alors se concurrencer et le « plus apte » finirait par prévaloir. C'est évidemment une vision étroite de ce qu'est réellement une unité d'évolution [17], mais soulève le problème important que les réseaux de réaction doivent d'une manière ou d'une autre posséder de multiples attracteurs et que les transitions entre les attracteurs doivent être possibles. Comme l'a dit Wesson [32], "l'attracteur est l'essence de l'auto-organisation. Ce qui le constitue et comment l'organisme passe d'un attracteur à un autre est une tâche de la génétique. d'élucider". Ce message est encore plus clair dans Conway Morris [33], qui postule que l'évolution navigue vers des solutions fonctionnelles particulières (convergence) indiquant ainsi l'existence de quelque chose d'analogue aux « attracteurs » dans les systèmes biologiques. Nous démontrons que pour qu'un réseau catalytique accumule des adaptations, il doit être compartimenté, le réseau de réaction platonique doit avoir plusieurs attracteurs, et certains de ces attracteurs doivent être sélectionnables. Plus le nombre d'attracteurs est grand, plus les chances de convergence sont faibles.

La compartimentation des réseaux réactionnels permet de filtrer les modifications néfastes et constitue donc un préalable à l'accumulation d'« adaptations » potentielles bénéfiques, comme le montre [19]. Nous avons modélisé les compartiments exactement comme dans Farmer et al. [12] c'est-à-dire que chaque compartiment est un réacteur à flux dans lequel les aliments sont introduits et les matériaux s'échappent au premier ordre. Le nombre d'attracteurs est en lui-même intéressant, car ils permettent à une protocellule d'avoir de multiples voies d'autocatalyse et aussi de montrer une variabilité moléculaire pour répondre à un environnement. Nous avons approximé le nombre d'attracteurs en fixant le réseau de réaction et en mélangeant les concentrations chimiques (en choisissant des paires aléatoires d'espèces et en échangeant leurs concentrations) plusieurs fois afin d'échantillonner diverses conditions initiales. Après le brassage, la dynamique du réseau est exécutée pendant une période de temps fixe jusqu'à ce qu'un attracteur soit atteint. Même s'il existe plusieurs attracteurs, la division stochastique peut ne pas générer une variation suffisante pour permettre la transition entre eux. Pour tester cela, nous avons également simulé la situation plus réaliste où le compartiment renfermant la chimie générative a été autorisé à croître pendant une période de temps fixe, après quoi il a été supposé se diviser en compartiments filles, dont les molécules ont été échantillonnées à partir d'une distribution polyhypergéométrique de molécules moléculaires. contenu dans le compartiment parental.

Nous arrivons maintenant à la question critique de l'évolutivité, qui peut d'abord être reformulée comme le potentiel d'une population de réseaux moléculaires compartimentés avec différents attracteurs à répondre à la sélection c'est-à-dire à transiter entre différents attracteurs selon la valeur de fitness attribuée à chacun d'eux. . Comme test préliminaire d'évolutivité, les réseaux réactionnels ont été soumis à une sélection artificielle. Une petite population de 10 compartiments a été isolée pendant une période de génération fixe. Après cette période, l'aptitude de chaque compartiment, définie comme la masse totale d'espèces non alimentaires présentes à la fin de la phase de croissance juste avant la division, a été évaluée et la production de la génération suivante s'est produite en prélevant des propagules de molécules des compartiments sur la base de la sélection proportionnelle à la condition physique (sélection par roue de roulette avec élitisme [34]). Cette sélection élitiste a été utilisée pour toujours échantillonner au moins une propagule de l'individu ayant le rang le plus élevé dans une génération donnée.

Les résultats de l'expérience de sélection artificielle ont été confirmés par des simulations numériques de sélection naturelle. Ici, nous avons supposé une population initiale de N = 100 compartiments et introduit un processus classique de Moran [35] pour tester l'évolutivité des réseaux de réaction lorsqu'ils sont soumis à la sélection naturelle. Ainsi, à chaque pas de temps, un compartiment choisi au hasard parmi l'ensemble de la population est sélectionné pour croître à une vitesse qui est fonction de sa composition chimique. Le compartiment est rendu à la population chaque fois que sa taille est inférieure à ?? molécules et l'étape se termine. Si, toutefois, la taille atteint ??, le compartiment génère deux compartiments filles par création de deux propagules. Un descendant remplace le compartiment parent et l'autre un descendant choisi au hasard dans la population. Dans ce processus stochastique, le nombre total de compartiments reste constant et donné par N, mais la taille du compartiment peut fluctuer entre la taille de la propagule et ?? molécules. La sélection pour une cible spécifique a été mise en œuvre en multipliant les taux de toutes les réactions par un avantage sélectif S s'il correspondait à la composition caractéristique de l'attracteur souhaité.

Nous avons testé l'évolutivité dans les trois modèles décrits précédemment - les ensembles autocatalytiques originaux de type Farmer, les réseaux avec inhibition et les réseaux avec de nouvelles espèces aléatoires produites par des réactions non catalysées - selon les principes décrits ci-dessus. Dans le cas des réseaux originaux [12] les résultats étaient simples : ils n'ont toujours qu'un seul attracteur (Fichier supplémentaire 1) et la sélection n'est pas possible. Cela n'était pas surprenant étant donné que ces réseaux ne contiennent qu'un seul cœur autocatalytique (Fichier supplémentaire 1). Par conséquent, la conclusion découle immédiatement de nos considérations précédentes : la chimie originale des polymères de Kauffman [11], lorsqu'elle est enfermée dans un espace fini, finira par se cristalliser dans le même réseau d'attraction qui ne pourra jamais être une unité darwinienne.

Il est intéressant de noter que ce comportement est analogue aux modèles conceptuellement similaires' [4] où l'ensemble du réseau catalytique ne forme inévitablement qu'un seul noyau viable et converge donc finalement vers un seul attracteur. Par conséquent, une conclusion importante à tirer de notre travail est que nous pouvons définitivement écarter tous les réseaux autocatalytiques discutés jusqu'à présent dans la littérature en tant qu'unités d'évolution au sens darwinien, à l'exception possible de [19].

Cependant, il a été suggéré [1] que l'inclusion de l'inhibition dans le réseau de type Farmer devrait permettre la formation d'ensembles autocatalytiques ayant des attracteurs dynamiques complexes. Pour déterminer s'il en est ainsi, nous effectuons également des simulations introduisant une forte inhibition non compétitive comme indiqué ci-dessus. Fait intéressant, nos résultats corroborent cette spéculation parce que les réseaux moléculaires présentaient maintenant plusieurs attracteurs, mais lorsque le processus de division de la croissance a été mis en œuvre, les transitions spontanées entre eux étaient rares. Lorsque des transitions se sont produites, elles se sont produites soit périodiquement, soit de manière chaotique (Fichier supplémentaire 1).De manière assez surprenante, l'expérience de sélection artificielle a exclu les réseaux avec inhibition des candidats d'unités d'évolution, car la population s'est généralement installée dans un équilibre ou a fluctué de manière stochastique ou périodique entre les attracteurs et donc les attracteurs ne pouvaient généralement pas être sélectionnés de manière stable (Fichier supplémentaire 1). Au lieu de cela, la dynamique interne du processus de division de la croissance a complètement annulé tout effet de sélection. Cela fournit un contre-exemple clair à l'affirmation largement acceptée selon laquelle l'existence de plusieurs attracteurs est suffisante pour permettre la sélection, il n'est pas.

La modification cruciale du modèle était de permettre à de nouvelles espèces rares d'apparaître de l'ombre. Dans les quelques cas de réseaux dans lesquels l'ajout spontané de nouvelles espèces a entraîné l'allumage d'une nouvelle boucle viable, et donc de nouveaux noyaux, il a toujours existé plusieurs attracteurs (voir Figure 2. pour un exemple didactique et Figure 4 pour le réseau utilisé dans les simulations évolutives). Notez que nous n'avons pas simulé de réactions inhibitrices dans cette version du modèle alors qu'elles sont certainement pertinentes dans des applications plus proches de la chimie réelle, leur inclusion aurait rendu nos résultats sur des boucles viables plus difficiles à interpréter. De manière analogue à l'idée que les « attracteurs » dans les systèmes biologiques ont des stabilités différentes (c. du temps avec des transitions occasionnelles vers des attracteurs moins stables (avec des bassins d'attracteurs plus petits).

Nous soupçonnions intuitivement que la sélection fonctionnerait dans des réseaux dotés de nouvelles boucles viables, et ce fut effectivement le cas. Nos résultats peuvent être résumés comme suit : alors que les réseaux avec le cœur viable ont un avantage sélectif implicite en raison de leur taux de croissance plus élevé, et constituent donc la majorité de la population, un avantage sélectif de 1% attribué à l'absence du cœur est suffisant pour réduire considérablement la proportion de réseaux avec des cœurs viables dans la population (Figure 5). La raison de la sélection dans ce modèle est qu'un nouveau noyau viable se traduit par un attracteur nouveau et distinct pour le réseau de réaction et, en raison de ses propriétés autocatalytiques, permet un taux de croissance plus élevé (masse non alimentaire). Par conséquent, nous avons déjà les conditions de base pour que la sélection naturelle se produise : deux entités qui croissent de façon exponentielle à des rythmes différents et ont des temps de division différents [36]. Puisqu'il est toujours possible de perdre le noyau viable lors de la fission des protocellules (une mutation de perte qui est simplement fonction de la taille de la propagule), il existe une sorte d'équilibre « mutation-sélection » si aucune nouvelle espèce chimique ne peut envahir de l'ombre. Lorsque des réactions rares sont autorisées, la nouveauté peut survenir par génération de nouveaux noyaux viables, et ils peuvent être éliminés par sélection s'ils réduisent le taux de croissance du compartiment. La sélection entre les compartiments, comme le montre la figure 5, est due à l'effet d'un noyau sur la condition physique au niveau des compartiments. Par exemple, le gros noyau (figure 4) supporte plus de masse non alimentaire dans son noyau et sa périphérie, ce qui augmente le taux de croissance du compartiment. En réalité, chaque molécule du noyau et de sa périphérie peut conférer une multitude d'effets au niveau du compartiment, par ex. modification de la perméabilité de la membrane, adaptations métaboliques spécifiques, etc. qui pourraient avoir un effet de fitness au niveau du compartiment, mais ceci n'est pas explicitement modélisé ici.

Sélectivité d'attracteurs potentiellement coexistants dans un réseau moléculaire. Chaque point correspond à un compartiment juste avant la division. (Sommet) En raison de ses propriétés autocatalytiques, une boucle viable permet un taux de croissance plus élevé et donc le réseau avec la grande boucle viable (caractérisé par 26 réactions et se divisant après environ 20 000 pas de temps) constitue le type de réseau le plus fréquent. Vitesse de réaction spontanée = 0,00001. Taille de propagule 800 pas de sélection (S = 1). (Bas) Cependant, avec un avantage de forme physique de seulement 1% (S = 1,01) attribué aux réseaux sans boucle, il est possible de réduire sa fréquence. Dans ce cas, le réseau d'origine sans aucune boucle viable est le plus fréquent.

Il est important de noter qu'il existe deux niveaux d'autocatalyse dans ce système. Même si l'organisation interne du réseau encapsulé par une protocellule ne parvient pas à être autocatalytique, la règle selon laquelle, après avoir atteint la masse critique, le compartiment se divise en deux garantit effectivement que ces compartiments auront un « temps de génération » et le potentiel de croissance exponentielle. Les noyaux autocatalytiques croissent également de façon exponentielle. Il y a donc autocatalyse à deux niveaux : le niveau des molécules et celui des compartiments. Le compartiment reproducteur sans réseau autocatalytique fermé n'est cependant pas un réplicateur, car il assume toujours le même état et ne peut pas supporter de variation héréditaire [28].


L'économie:

À mesure que de nouveaux principes émergent dans de nouveaux domaines et de nouveaux corps technologiques se développent, ils se répercutent profondément sur l'économie. L'économie n'est pas tellement adopter une technologie comme rencontrer ce. Une industrie est constituée de ses organisations, de ses processus commerciaux et de ses équipements de production. Ces éléments se heurtent au domaine d'une nouvelle technologie, comme le domaine de l'informatique qui s'installe dans le secteur bancaire. À mesure que l'impact sur cette industrie se répercute sur d'autres secteurs, s'il est suffisamment important, la structure de l'économie change également.

Ainsi, la technologie ne se contente pas de se combiner à un niveau technologique micro et individuel, elle combine également des ensembles de technologies avec diverses industries à un niveau macro.

Plutôt que de penser à la demande de technologies, Arthur utilise la notion de "niches d'opportunité”, comme s'il s'agissait d'un type d'écosystème au sein duquel la technologie évolue et vit. Les niches d'opportunités évoluent au fil du temps, non seulement au fur et à mesure que les goûts et les besoins humains évoluent, mais aussi en réponse aux opportunités ouvertes par d'autres technologies. L'automobile a ouvert un créneau d'opportunité pour le ravitaillement des véhicules, par exemple.

Si vous deviez cartographier toutes les technologies existantes dans un réseau, cela aurait l'air quelque peu organique, se développant dans toutes les directions. Vous pouvez imaginer les technologies activement utilisées comme allumé nœuds du réseau, tandis que la lumière s'éteint sur les technologies qui ne sont plus activement utilisées dans le grand public. Lorsque ces nœuds technologiques apparaissent et s'allument et lorsqu'ils s'assombrissent, cela affecte non seulement le réseau de technologies connexes, mais aussi des ondulations à travers l'économie. Parce que les technologies sont constituées de combinaisons d'autres technologies, une fois qu'une certaine masse critique existe, les combinaisons potentielles de pièces utilisables augmentent de façon exponentielle, créant une sorte d'explosion cambrienne de possibilités technologiques.

Arthur voit l'économie non pas tant comme un conteneur pour la technologie, mais plutôt comme quelque chose qui est formé par la technologie. L'économie ne se limite pas à la technologie, mais les technologies forment quelque chose qui s'apparente à sa structure squelettique. Une autre façon de voir les choses est que l'économie est à peu près analogue à un écosystème au sein duquel les technologies existent. L'économie change la technologie et la technologie change l'économie, de la même manière que les organismes et les écosystèmes coexistent et se façonnent les uns les autres.


L'évolution révèle le lien manquant entre l'ADN et la forme des protéines

Cinquante ans après la découverte pionnière selon laquelle la structure tridimensionnelle d'une protéine est déterminée uniquement par la séquence de ses acides aminés, une équipe internationale de chercheurs a franchi une étape majeure vers la réalisation de la promesse alléchante : prédire la structure d'une protéine à partir de son seul ADN .

L'équipe de la Harvard Medical School (HMS), du Politecnico di Torino / Human Genetics Foundation Torino (HuGeF) et du Memorial Sloan-Kettering Cancer Center à New York (MSKCC) a signalé des progrès substantiels dans la résolution d'un problème classique de biologie moléculaire : la protéine computationnelle problème de pliage.

Les résultats seront publiés le 7 décembre dans la revue PLoS UN.

En biologie moléculaire et en génie biomédical, connaître la forme des molécules de protéines est essentiel pour comprendre comment elles accomplissent le travail de la vie, les mécanismes de la maladie et la conception de médicaments. Normalement, la forme des molécules de protéines est déterminée par des expériences coûteuses et compliquées, et pour la plupart des protéines, ces expériences n'ont pas encore été réalisées. Le calcul de la forme à partir des seules informations génétiques est en principe possible. Mais malgré un succès limité pour certaines protéines plus petites, ce défi est resté essentiellement non résolu. La difficulté réside dans l'énorme complexité de l'espace de recherche, un nombre astronomiquement grand de formes possibles. Sans aucun raccourci, il faudrait de nombreuses années à un superordinateur pour explorer toutes les formes possibles, même d'une petite protéine.

"La détermination de la structure expérimentale a du mal à suivre l'explosion des informations sur les séquences génétiques", a déclaré Debora Marks, biologiste mathématique au département de biologie des systèmes de HMS, qui a travaillé en étroite collaboration avec Lucy Colwell, une mathématicienne récemment déménagée de Harvard. à l'Université de Cambridge. Ils ont collaboré avec les physiciens Riccardo Zecchina et Andrea Pagnani à Turin dans un effort d'équipe initié par Marks et le biologiste computationnel Chris Sander du programme de biologie computationnelle du MSKCC, qui avait déjà tenté une solution similaire au problème, alors que beaucoup moins de séquences étaient disponibles.

"La collaboration était la clé", a déclaré Sander. "Comme pour de nombreuses découvertes importantes en science, personne ne pourrait fournir la réponse isolément."

L'équipe internationale a testé une prémisse audacieuse : cette évolution peut fournir une feuille de route sur la façon dont la protéine se replie. Leur approche combinait trois éléments clés : des informations évolutives accumulées pendant plusieurs millions d'années, des données issues du séquençage génétique à haut débit et une méthode clé de physique statistique, co-développée dans le groupe de Turin avec Martin Weigt, récemment transféré à l'Université de Paris.

En utilisant les informations évolutives accumulées sous la forme de séquences de milliers de protéines, regroupées en familles de protéines susceptibles d'avoir des formes similaires, l'équipe a trouvé un moyen de résoudre le problème : un algorithme pour déduire quelles parties d'une protéine interagissent pour déterminer sa forme. Ils ont utilisé un principe de la physique statistique appelé « entropie maximale » dans une méthode qui extrait des informations sur les interactions microscopiques à partir de la mesure des propriétés du système.

"Le problème de repliement des protéines a été un énorme défi combinatoire pendant des décennies", a déclaré Zecchina, "mais nos méthodes statistiques se sont avérées étonnamment efficaces pour extraire des informations essentielles du dossier de l'évolution."

Avec ces interactions protéiques internes en main, un logiciel de simulation moléculaire largement utilisé développé par Axel Brunger à l'Université de Stanford a généré les détails atomiques de la forme de la protéine. L'équipe a été pour la première fois capable de calculer des formes remarquablement précises à partir des seules informations de séquence pour un ensemble de tests de 15 protéines diverses, sans limite de taille de protéine en vue, avec une précision sans précédent.

"Seule, aucune des pièces individuelles n'est complètement nouvelle, mais apparemment personne ne les avait toutes rassemblées pour prédire la structure des protéines en 3D", a déclaré Colwell.

Pour tester leur méthode, les chercheurs se sont d'abord concentrés sur la famille Ras de protéines de signalisation, qui a été largement étudiée en raison de son lien connu avec le cancer. La structure de plusieurs protéines de type Ras a déjà été résolue expérimentalement, mais les protéines de la famille sont plus grandes - avec environ 160 résidus d'acides aminés - que toutes les protéines modélisées par ordinateur à partir de la séquence seule.

"Lorsque nous avons vu la première protéine Ras repliée par ordinateur, nous avons presque explosé", a déclaré Marks. À la stupéfaction des chercheurs, leur modèle s'est replié à environ 3,5 angströms de la structure connue avec tous les éléments structurels au bon endroit. Et il n'y a aucune raison, disent les auteurs, que la méthode ne puisse pas fonctionner avec des protéines encore plus grosses.

Les chercheurs avertissent cependant qu'il existe d'autres limites : les structures expérimentales, lorsqu'elles sont disponibles, sont généralement plus précises dans les détails atomiques. Et, la méthode ne fonctionne que lorsque les chercheurs disposent de données génétiques pour de grandes familles de protéines. Mais les progrès du séquençage de l'ADN ont produit un torrent de ces données qui devraient continuer à croître de manière exponentielle dans un avenir prévisible.

La prochaine étape, selon les chercheurs, consiste à prédire les structures des protéines non résolues actuellement étudiées par les biologistes structurels, avant d'explorer le vaste territoire inexploré des structures protéiques actuellement inconnues.

"La synergie entre la prédiction informatique et la détermination expérimentale des structures est susceptible de fournir des informations de plus en plus précieuses sur le vaste univers des formes de protéines qui déterminent de manière cruciale leur fonction et leur dynamique évolutive", a déclaré Sander.

Cette recherche a été financée par le National Cancer Institute et le Engineering and Physical Sciences Research Council du Royaume-Uni.


L'évolution ne récompense pas les gens égoïstes et méchants

De nouvelles recherches ont montré que notre biologie évolutive ne récompense pas les gens égoïstes et méchants. Sur le long terme, les « gentils » coopératifs finissent en premier. Les biologistes évolutionnistes de la Michigan State University Christoph Adami et Arend Hintze ont découvert que l'évolution favorise la coopération et l'altruisme plutôt que d'être « méchant et égoïste ».

La nouvelle étude intitulée «L'instabilité évolutive des stratégies à zéro déterminant démontre que gagner n'est pas tout» a été publié le 1er août 2013 dans Communications naturelles. Adami et Hintze disent que leurs recherches montrent que le fait de ne présenter que des traits égoïstes aurait causé l'extinction des humains. "Nous avons découvert que l'évolution vous punira si vous êtes égoïste et méchant", a déclaré l'auteur principal Christoph Adami, professeur de microbiologie et de génétique moléculaire à la MSU. "Pendant une courte période et contre un groupe spécifique d'opposants, certains organismes égoïstes peuvent prendre l'avantage. Mais l'égoïsme n'est pas durable sur le plan de l'évolution."

Les recherches d'Adami et Hintze se concentrent sur la théorie des jeux, qui est utilisée en biologie, en économie, en sciences politiques et dans d'autres disciplines. Il y a eu beaucoup de recherches au cours des 30 dernières années sur l'évolution de la coopération chez diverses espèces. Le comportement coopératif est la clé de la survie de nombreuses formes de vie, des organismes unicellulaires aux humains. La coopération mutualiste est au cœur de l'interdépendance humaine et la clé de la survie de notre espèce.

Gagner n'est pas tout

La théorie des jeux consiste à concevoir des jeux pour simuler des situations de conflit ou de coopération. Il permet aux chercheurs de démêler des stratégies décisionnelles complexes et d'établir pourquoi certains types de comportement émergent chez différents individus.

Les chercheurs de la MSU ont utilisé un modèle de jeu du "dilemme du prisonnier", dans lequel deux suspects interrogés dans des cellules de prison séparées doivent décider s'ils veulent ou non s'en prendre à l'autre. Les chercheurs ont qualifié le fait d'être un informateur de stratégie « méchante et égoïste » et ont été influencés par un participant connaissant la décision précédente de son adversaire et adaptant sa stratégie en conséquence.

Dans le dilemme du prisonnier, chaque joueur se voit proposer une carte « sortir de prison » s'il s'en prend à son adversaire et le met en prison pendant six mois. Cependant, ce scénario ne se jouera que si l'adversaire choisit de ne pas informer. Si les deux détenus choisissent d'informer (défection), ils écopent tous les deux de trois mois de prison, mais s'ils gardent tous les deux le silence (coopération), ils n'obtiennent tous les deux qu'une peine d'un mois de prison.

Adami explique : « Les deux prisonniers qui sont interrogés ne sont pas autorisés à se parler. S'ils le faisaient, ils feraient un pacte et seraient libres dans un mois. Mais s'ils ne se parlaient pas, la tentation serait de se dénoncer. Être méchant peut vous donner un avantage à court terme, mais certainement pas à long terme – vous disparaîtriez. »

Nous sommes tous dans le même bateau

Une étude de 2012 intitulée "Deux étapes clés dans l'évolution de la coopération humaine : l'hypothèse de l'interdépendance” a montré que les humains sont beaucoup plus enclins à coopérer que leurs plus proches parents évolutionnaires. Les auteurs de l'étude ont découvert que les humains développaient des compétences coopératives parce qu'il était dans leur intérêt mutuel de bien travailler avec les autres, principalement en raison de circonstances écologiques qui nous obligeaient à coopérer avec les autres pour obtenir de la nourriture.

En fin de compte, l'altruisme est égoïste dans une certaine mesure - nous devons coopérer les uns avec les autres pour survivre. Nous sommes altruistes envers les autres car nous en avons besoin pour notre survie individuelle et la survie de notre espèce.

Les chercheurs pensent qu'en tant que chasseurs-cueilleurs, les humains devaient se nourrir ensemble, ce qui signifiait que chaque individu avait un intérêt direct dans le bien-être du groupe. Cela a créé une interdépendance qui a amené les humains à développer des capacités de coopération spéciales que les autres singes ne possèdent pas. Cela comprend : diviser la nourriture de manière équitable, communiquer les objectifs et les stratégies et comprendre son rôle individuel dans le collectif. Les Homo sapiens qui étaient capables de se coordonner avec leurs collègues chasseurs-cueilleurs tireraient leur poids dans le groupe et avaient plus de chances de survivre.

Au fur et à mesure que les sociétés devenaient plus grandes et plus complexes, les humains devenaient en fait plus dépendants les uns des autres. Les auteurs définissent cela comme un deuxième saut évolutif dans lequel les compétences et les impulsions collaboratives ont été développées à plus grande échelle alors que les humains étaient confrontés à la concurrence d'autres groupes. Au fur et à mesure que nous passions de l'agriculture à l'industrialisation, les individus sont devenus en fait plus « d'esprit de groupe », en s'identifiant aux autres dans leur société même s'ils ne les connaissaient pas personnellement. Ce nouveau sentiment d'appartenance a créé des conventions et des normes culturelles autochtones, qui se sont reflétées dans des comportements intéressés par le bien-être de la collectivité, tels que le volontariat.

Conclusion : la biologie évolutive montre que les gentils terminent premiers

L'ère numérique et la culture Facebook nous rendront-ils plus interdépendants, coopératifs et collectifs, ou plus égoïstes, égocentriques et méchants ? Dans un monde de chien mangeur de chien, il est encourageant de voir des scientifiques confirmer que les comportements machiavéliques et égoïstes finissent par se retourner contre eux. Être coopératif, loyal et altruiste n'est pas seulement bon pour votre bien-être individuel, cela renforce le capital social, la résilience et est bon pour le collectif. C'est le gagnant-gagnant ultime.

« Ce que nous avons modélisé dans l'ordinateur étaient des choses très générales, à savoir des décisions entre deux comportements différents. Nous les appelons coopération et défection. Mais dans le monde animal il y a toutes sortes de comportements qui sont binaires, par exemple fuir ou se battre », explique Adami."Dans tout environnement évolutif, connaître la décision de votre adversaire ne serait pas avantageux pour longtemps car votre adversaire développerait le même mécanisme de reconnaissance pour vous connaître également", conclut le Dr Adami. "C'est presque comme ce que nous avons eu pendant la guerre froide, une course aux armements - mais ces courses aux armements se produisent tout le temps dans la biologie évolutive."


5 LE PROBLÈME -BTP

Typiquement sur des données réelles, un BTP n'existera pas, soit parce que les fréquences uneje sont déterminés avec une certaine erreur ou les données VAF ne capturent pas la fréquence d'une sous-population qui n'a pas de mutations qui se produisent exclusivement dans cette sous-population (les VAF fournissent des informations uniquement sur la proportion de cellules avec une mutation, et ne fournissent pas d'informations sur les proportions de cellules qui ont une mutation spécifique et manquent d'une autre mutation.). Dans cette section, nous introduisons le ε-BTP pour tenir compte de ces scénarios. Supposons que nous ayons le multi-ensemble L ∼ = < a ∼ 1 , … , a ∼ m > de fréquences observées et un correspondant Vecteur d'erreur VAF = (ε1, … ,εm) pour L ∼ ⁠ , où εje est l'erreur maximale possible en observant a ∼ i pour 1 ≤ jem. Pour tenir compte des sous-populations sans distinguer les mutations, nous devrons peut-être ajouter auxiliaire fréquences à L qui correspondent aux fréquences de sous-population manquantes. Nous faisons les définitions suivantes.

Soit un multi-ensemble L ∼ = < a ∼ 1 , … , a ∼ m >avec le vecteur d'erreur VAF associé ϵ = ( ϵ 1 , … , ϵ m ) ⁠ , un ε-BTP avec k ≥ 0 auxiliaire nodes est un BTP pour un multi-ensemble L = < a 1 , a 2 , … a m + k >tel que pour tout i ≤ m : | a i − a i | ϵ je . On appelle les nœuds unem+1, … ,unem+k les nœuds auxiliaires du -BTP.

Étant donné un multi-ensemble L et un vecteur d'erreur VAF associé ε, trouver un ε-BTP de L ∼ avec un nombre minimum de nœuds auxiliaires tel que deux nœuds auxiliaires ne soient pas frères.

La contrainte sur les nœuds auxiliaires dans la définition du problème ε-BTP découle des hypothèses de notre modèle de progression du cancer : chaque branchement dans la progression du cancer ne se produit que lorsqu'au moins une expansion clonale commence. Ainsi, les données VAF capturent la fréquence de la sous-population nouvellement formée (voir la section 2). Ainsi, au moins un des enfants du nœud de sous-population courant n'est pas un nœud auxiliaire.

Il est simple de montrer que pour tout multi-ensemble L de taille m, il est toujours possible d'obtenir un ε-BTP avec k = m − 1 nœuds auxiliaires (preuve en annexe complémentaire A.3 ). Aussi, quand εje = 0 pour tout 1 jem, un BTP existe pour L si et seulement si le ε-BTP correspondant a une solution avec k = 0 nœuds auxiliaires.

Pour décrire notre algorithme, nous avons besoin des définitions suivantes.

Étant donné un vecteur d'erreur VAF ε, un arbre ε-CSP est un arbre binaire (pondéré), tel que pour chaque nœud interne a ∼ i on a a ∼ j + a ∼ k ∈ [ a ∼ i ± ( ϵ i + ϵ j + ϵ k ) ] ⁠ , où a j et a ∼ k sont les enfants de a ∼ i ⁠ .

On dit qu'un arbre -CSP T pour un multi-ensemble L ∼ est acceptable si on peut obtenir un BTP, α ( T ∼ ) ⁠ , en remplaçant chaque a ∼ i par une valeur uneje où | a i − a i | ϵ je . Notez que α ( T ∼ ) est un ε-BTP pour L ∼ ⁠ . Notez également qu'un arbre ε-CSP n'est pas nécessairement acceptable (voir l'annexe supplémentaire D.8 ). Cependant, on peut facilement vérifier si un arbre ε-CSP donné T est acceptable en trouvant une collection de eje's, où | e je | ≤ ϵ i ⁠ , satisfaisant les contraintes suivantes : ( a ∼ i + ei ) = ( a ∼ j + ej ) + ( a ∼ k + ek ) , pour chaque nœud interne a ∼ i et ses enfants a ∼ j , a ∼ k . Cela peut être facilement fait via un programme linéaire, que nous désignons par L P ( T ∼ ) ⁠ .

Notre algorithme Rec-BTP (algorithme 1) utilise une méthode récursive qui fonctionne comme suit : à chaque récursivité au cours de l'algorithme, nous avons (i) un arbre ε-CSP partiellement construit T ^ ⁠ , (ii) un multi-ensemble de fréquences restantes L ^ et (iii) le nombre de nœuds auxiliaires restants que nous sommes autorisés à utiliser. Nous vérifions si T ^ peut être étendu en attachant deux éléments de L ^ ⁠ , ou un élément de L ^ et un nœud auxiliaire, à l'une des feuilles de T ^ (nous attribuons le poids du nœud auxiliaire en conséquence). Si L ^ est vide, cela signifie que l'algorithme a construit un arbre ε-CSP. On sort donc < α ( T ^ ) >si L P ( T ^ ) a une solution réalisable. Enfin, Rec-BTP sort tous les ε-BTP. Itération sur toutes les valeurs de k de 0 à m − 1, l'algorithme trouvera le plus petit k tel qu'il existe un -BTP.

Plus loin dans la section 6, dans le but de comparer nos résultats, en cas de sorties multiples ε-BTP, nous choisissons uniquement l'arbre dont la liste des fréquences de nœuds a l'écart quadratique moyen (RMSD) minimum par rapport aux données VAF d'origine (définies ci-dessous au chapitre 6).


Contenu

Théorie des jeux classique Modifier

La théorie classique des jeux non coopératifs a été conçue par John von Neumann pour déterminer les stratégies optimales dans les compétitions entre adversaires. Un concours implique des joueurs, qui ont tous un choix de coups. Les jeux peuvent être en un seul tour ou répétitifs. L'approche qu'un joueur adopte dans ses mouvements constitue sa stratégie. Les règles régissent le résultat des mouvements effectués par les joueurs, et les résultats produisent des gains pour les règles des joueurs et les gains résultants peuvent être exprimés sous forme d'arbres de décision ou dans une matrice de gains. La théorie classique oblige les joueurs à faire des choix rationnels. Chaque joueur doit tenir compte de l'analyse stratégique que font ses adversaires pour faire son propre choix de coups. [4] [5]

Le problème du comportement ritualisé Modifier

La théorie des jeux évolutionnaires a commencé avec le problème de savoir comment expliquer le comportement animal ritualisé dans une situation de conflit « pourquoi les animaux sont-ils si « gentilmans ou ladylike » dans les concours pour les ressources ? » Les principaux éthologues Niko Tinbergen et Konrad Lorenz ont proposé qu'un tel comportement existe pour le bien de l'espèce. John Maynard Smith considérait qu'incompatible avec la pensée darwinienne [6], où la sélection se produit au niveau individuel, l'intérêt personnel est donc récompensé alors que la recherche du bien commun ne l'est pas. Maynard Smith, un biologiste mathématique, s'est tourné vers la théorie des jeux comme suggéré par George Price, bien que les tentatives de Richard Lewontin pour utiliser la théorie aient échoué. [7]

Adapter la théorie des jeux aux jeux évolutionnaires Modifier

Maynard Smith s'est rendu compte qu'une version évolutive de la théorie des jeux n'exige pas que les joueurs agissent de manière rationnelle, mais seulement qu'ils aient une stratégie. Les résultats d'un jeu montrent à quel point cette stratégie était bonne, tout comme l'évolution teste des stratégies alternatives pour la capacité de survivre et de se reproduire. En biologie, les stratégies sont des traits hérités génétiquement qui contrôlent l'action d'un individu, de manière analogue aux programmes informatiques. Le succès d'une stratégie est déterminé par la qualité de la stratégie en présence de stratégies concurrentes (y compris elle-même) et par la fréquence à laquelle ces stratégies sont utilisées. [8] Maynard Smith a décrit son travail dans son livre L'évolution et la théorie des jeux. [9]

Les participants visent à produire autant de répliques d'eux-mêmes que possible, et le gain est en unités de fitness (valeur relative de pouvoir se reproduire). C'est toujours un jeu multi-joueurs avec de nombreux concurrents. Les règles incluent la dynamique du réplicateur, c'est-à-dire comment les joueurs les plus aptes engendreront plus de répliques d'eux-mêmes dans la population et comment les moins aptes seront sélectionnés, dans une équation de réplicateur. La dynamique du réplicateur modélise l'hérédité mais pas la mutation, et suppose une reproduction asexuée par souci de simplicité. Les jeux sont exécutés de manière répétitive sans conditions de fin. Les résultats incluent la dynamique des changements dans la population, le succès des stratégies et les états d'équilibre atteints. Contrairement à la théorie des jeux classique, les joueurs ne choisissent pas leur stratégie et ne peuvent pas la changer : ils sont nés avec une stratégie et leur progéniture hérite de cette même stratégie. [dix]

Modèles Modifier

La théorie des jeux évolutionnistes analyse les mécanismes darwiniens avec un modèle de système à trois composants principaux - population, Jeu, et dynamique du réplicateur. Le processus du système comporte quatre phases :

1) Le modèle (comme l'évolution elle-même) traite d'un population (Pn). La population présentera des variations parmi les individus concurrents. Dans le modèle, cette compétition est représentée par le jeu.

2) Le jeu teste les stratégies des individus selon les règles du jeu. Ces règles produisent différents gains – en unités de fitness (le taux de production de la progéniture). Les individus en compétition se rencontrent dans des compétitions par paires avec d'autres, normalement dans une distribution très mélangée de la population. Le mélange de stratégies dans la population affecte les résultats des gains en modifiant les chances qu'un individu puisse se rencontrer dans des compétitions avec diverses stratégies. Les individus quittent le jeu concours par paires avec une aptitude résultante déterminée par le résultat du concours, représenté dans un matrice des gains.

3) Sur la base de cette aptitude résultante, chaque membre de la population subit ensuite une réplication ou un abattage déterminé par les mathématiques exactes du processus de dynamique du réplicateur. Ce processus global produit alors un nouvelle génération P(n+1). Chaque individu survivant a désormais un nouveau niveau de forme physique déterminé par le résultat du jeu.

4) La nouvelle génération prend alors la place de la précédente et le cycle se répète. La composition de la population peut converger vers une état évolutif stable qui ne peut être envahi par aucune stratégie mutante.

La théorie des jeux évolutionnaires englobe l'évolution darwinienne, y compris la compétition (le jeu), la sélection naturelle (dynamique des réplicateurs) et l'hérédité. La théorie des jeux évolutionnaires a contribué à la compréhension de la sélection de groupe, de la sélection sexuelle, de l'altruisme, des soins parentaux, de la co-évolution et de la dynamique écologique. De nombreuses situations contre-intuitives dans ces domaines ont été mises sur une base mathématique solide par l'utilisation de ces modèles. [11]

La façon courante d'étudier la dynamique évolutive dans les jeux est d'utiliser des équations de réplicateur. Ceux-ci montrent le taux de croissance de la proportion d'organismes utilisant une certaine stratégie et ce taux est égal à la différence entre le gain moyen de cette stratégie et le gain moyen de la population dans son ensemble. [12] Les équations de réplication continues supposent des populations infinies, un temps continu, un mélange complet et que les stratégies se reproduisent vraies. Les attracteurs (points fixes stables) des équations sont équivalents à des états évolutifs stables. Une stratégie qui peut survivre à toutes les stratégies « mutantes » est considérée comme stable sur le plan de l'évolution. Dans le contexte du comportement animal, cela signifie généralement que de telles stratégies sont programmées et fortement influencées par la génétique, rendant ainsi la stratégie de tout acteur ou organisme déterminée par ces facteurs biologiques. [13] [14]

Les jeux évolutionnaires sont des objets mathématiques avec des règles, des gains et des comportements mathématiques différents. Chaque "jeu" représente différents problèmes auxquels les organismes doivent faire face et les stratégies qu'ils pourraient adopter pour survivre et se reproduire. Les jeux évolutifs portent souvent des noms colorés et des histoires de couverture qui décrivent la situation générale d'un jeu particulier. Les jeux représentatifs incluent le faucon-colombe, [1] la guerre d'usure, [15] la chasse au cerf, le producteur-scrounger, la tragédie des biens communs et le dilemme du prisonnier. Les stratégies pour ces jeux incluent le faucon, la colombe, le bourgeois, le sondeur, le transfuge, l'évaluateur et le représailleur. Les diverses stratégies sont en concurrence selon les règles du jeu particulier, et les mathématiques sont utilisées pour déterminer les résultats et les comportements.

Colombe faucon Modifier

Le premier jeu analysé par Maynard Smith est le classique colombe faucon [un jeu. Il a été conçu pour analyser le problème de Lorenz et Tinbergen, un concours sur une ressource partageable. Les concurrents peuvent être un faucon ou une colombe. Ce sont deux sous-types ou morphes d'une même espèce avec des stratégies différentes. Le faucon fait d'abord preuve d'agressivité, puis se transforme en combat jusqu'à ce qu'il gagne ou soit blessé (perd). La colombe montre d'abord de l'agressivité, mais si elle est confrontée à une escalade majeure, elle court pour la sécurité. Si elle n'est pas confrontée à une telle escalade, la colombe tente de partager la ressource. [1]

Matrice de gains pour le jeu de la colombe faucon
rencontre faucon rencontre colombe
si faucon V/2 − C/2 V
si colombe 0 V/2

Étant donné que la ressource reçoit la valeur V, les dégâts causés par la perte d'un combat reçoivent le coût C : [1]

  • Si un faucon rencontre une colombe, il obtient la pleine ressource V
  • Si un faucon rencontre un faucon – la moitié du temps qu'ils gagnent, la moitié du temps qu'ils perdent. donc le résultat moyen est alors V/2 moins C/2
  • Si une colombe rencontre un faucon, ils reculeront et n'obtiendront rien – 0
  • Si une colombe rencontre une colombe, les deux partagent la ressource et obtiennent V/2

Le gain réel dépend cependant de la probabilité de rencontrer un faucon ou une colombe, qui à son tour est une représentation du pourcentage de faucons et de colombes dans la population lorsqu'un concours particulier a lieu. Cela est à son tour déterminé par les résultats de tous les concours précédents. Si le coût de perdre C est supérieur à la valeur de gagner V (la situation normale dans le monde naturel) les mathématiques se terminent par une stratégie évolutionnairement stable (ESS), un mélange des deux stratégies où la population de faucons est V/C . La population régresse jusqu'à ce point d'équilibre si de nouveaux faucons ou colombes perturbent temporairement la population. La solution du jeu de la colombe du faucon explique pourquoi la plupart des concours d'animaux n'impliquent que des comportements de combat rituels dans les concours plutôt que des batailles pures et simples. Le résultat ne dépend pas du tout des comportements « bons de l'espèce » comme le suggère Lorenz, mais uniquement de l'implication d'actions de gènes dits égoïstes. [1]

Guerre d'usure Modifier

Dans le jeu de la colombe faucon, la ressource est partageable, ce qui donne des gains aux deux colombes se rencontrant dans un concours par paires. Lorsque la ressource n'est pas partageable, mais qu'une ressource alternative peut être disponible en reculant et en essayant ailleurs, les stratégies de faucon ou de colombe pures sont moins efficaces. Si une ressource non partageable est associée à un coût élevé de la perte d'un concours (blessure ou mort possible), les gains du faucon et de la colombe sont encore plus réduits. Une stratégie plus sûre d'affichage à moindre coût, de bluff et d'attente pour gagner est alors viable – une stratégie de bluff. Le jeu devient alors celui de l'accumulation des coûts, soit les coûts d'affichage, soit les coûts d'un engagement prolongé non résolu. Il s'agit effectivement d'une enchère dont le gagnant est le concurrent qui avalera le coût le plus élevé tandis que le perdant reçoit le même coût que le gagnant mais aucune ressource. [15] Les mathématiques de la théorie des jeux évolutionnistes qui en résultent conduisent à une stratégie optimale de bluff chronométré. [16]

En effet, dans la guerre d'usure, toute stratégie inébranlable et prévisible est instable, car elle sera finalement remplacée par une stratégie mutante qui repose sur le fait qu'elle peut surpasser la stratégie prévisible existante en investissant un petit delta supplémentaire de ressources en attente. pour s'assurer qu'il gagne. Par conséquent, seule une stratégie aléatoire et imprévisible peut se maintenir dans une population de bluffeurs. Les concurrents choisissent en effet un coût acceptable à encourir lié à la valeur de la ressource recherchée, faisant effectivement une offre aléatoire dans le cadre d'une stratégie mixte (une stratégie où un concurrent a plusieurs, voire plusieurs, actions possibles dans sa stratégie ). Cela met en œuvre une distribution d'enchères pour une ressource de valeur spécifique V, où l'enchère pour tout concours spécifique est choisie au hasard à partir de cette distribution. La distribution (un ESS) peut être calculée à l'aide du théorème de Bishop-Cannings, qui est vrai pour tout ESS à stratégie mixte. [17] La ​​fonction de distribution dans ces concours a été déterminée par Parker et Thompson comme étant :

Le résultat est que la population cumulée d'abandons pour un coût particulier m dans cette solution de « stratégie mixte » est :

comme le montre le graphique ci-contre. Le sentiment intuitif qu'une plus grande valeur des ressources recherchées entraîne des temps d'attente plus longs est confirmé. Ceci est observé dans la nature, comme chez les mouches mâles qui se disputent les sites d'accouplement, où le moment du désengagement dans les concours est tel que prédit par les mathématiques de la théorie de l'évolution. [18]

Des asymétries qui permettent de nouvelles stratégies Modifier

Dans la guerre d'usure, rien ne doit indiquer la taille d'une offre à un adversaire, sinon l'adversaire peut utiliser la réplique dans une contre-stratégie efficace. Il existe cependant une stratégie mutante qui peut mieux bluffer dans le jeu de la guerre d'usure si une asymétrie appropriée existe, la stratégie bourgeoise. Bourgeois utilise une sorte d'asymétrie pour sortir de l'impasse. Dans la nature, une telle asymétrie est la possession d'une ressource. La stratégie est de jouer un faucon s'il est en possession de la ressource, mais d'afficher puis de battre en retraite s'il n'est pas en possession. Cela nécessite une plus grande capacité cognitive que le faucon, mais le bourgeois est courant dans de nombreux concours d'animaux, comme dans les concours entre les crevettes-mantes et parmi les papillons des bois mouchetés.

Comportement social Modifier

Des jeux comme la colombe faucon et la guerre d'usure représentent une pure compétition entre les individus et n'ont aucun élément social associé. Lorsque les influences sociales s'appliquent, les concurrents ont quatre alternatives possibles pour l'interaction stratégique. Ceci est illustré sur la figure adjacente, où un signe plus représente un avantage et un signe moins représente un coût.

  • Dans un coopérative ou mutualiste relation à la fois « donateur » et « bénéficiaire » sont presque indiscernables car les deux gagnent un avantage dans le jeu en coopérant, c'est-à-dire que la paire est dans une situation de jeu où les deux peuvent gagner en exécutant une certaine stratégie, ou bien les deux doivent agir de concert en raison de certaines contraintes globales qui les mettent effectivement « dans le même bateau ».
  • Dans un altruiste relation avec le donateur, à un coût pour lui-même, procure un avantage au bénéficiaire. Dans le cas général, le bénéficiaire aura un lien de parenté avec le donneur et le don est à sens unique. Les comportements où les bénéfices sont donnés alternativement (dans les deux sens) à un coût, sont souvent appelés « altruistes », mais sur l'analyse un tel « altruisme » peut être vu comme le résultat de stratégies « égoïstes » optimisées.
  • Dépit est essentiellement une forme « inversée » d'altruisme où un allié est aidé en endommageant les concurrents de l'allié. Le cas général est que l'allié est lié à la parenté et que l'avantage est un environnement concurrentiel plus facile pour l'allié. Remarque : George Price, l'un des premiers modélisateurs mathématiques de l'altruisme et de la rancune, a trouvé cette équivalence particulièrement troublante au niveau émotionnel.[19]
  • Égoïsme est le critère de base de tout choix stratégique du point de vue de la théorie des jeux - les stratégies qui ne visent pas l'auto-survie et l'auto-réplication ne sont pas longues pour n'importe quel jeu. Cependant, de manière critique, cette situation est affectée par le fait que la compétition se déroule à plusieurs niveaux, c'est-à-dire au niveau génétique, individuel et collectif.

À première vue, il peut sembler que les concurrents des jeux évolutifs sont les individus présents dans chaque génération qui participent directement au jeu. Mais les individus ne vivent qu'à travers un cycle de jeu, et ce sont plutôt les stratégies qui s'affrontent vraiment pendant la durée de ces jeux à plusieurs générations. Ce sont donc en fin de compte les gènes qui jouent un concours complet – les gènes égoïstes de la stratégie. Les gènes contestataires sont présents chez un individu et dans une certaine mesure dans tous les parents de l'individu. Cela peut parfois profondément affecter les stratégies qui survivent, en particulier avec les problèmes de coopération et de défection. William Hamilton, [21] connu pour sa théorie de la sélection de la parenté, a exploré bon nombre de ces cas en utilisant des modèles de la théorie des jeux. Le traitement lié à la parenté des concours de jeu [22] aide à expliquer de nombreux aspects du comportement des insectes sociaux, le comportement altruiste dans les interactions parent-enfant, les comportements de protection mutuelle et les soins coopératifs de la progéniture. Pour de tels jeux, Hamilton a défini une forme étendue de fitness - remise en forme inclusive, qui comprend la progéniture d'un individu ainsi que tout équivalent de progéniture trouvé dans la parenté.

La forme physique est mesurée par rapport à la population moyenne, par exemple, la forme physique=1 signifie une croissance au taux moyen de la population, la forme physique < 1 signifie une part décroissante de la population (disparition), la forme physique > 1 signifie une part croissante de la population (prendre le contrôle).

La forme physique inclusive d'un individu wje est la somme de son aptitude spécifique à elle-même uneje plus l'aptitude spécifique de chaque parent pondérée par le degré de parenté qui équivaut à la addition de tout rj*bj. où rj est la parenté d'un parent spécifique et bj est la forme physique de ce parent spécifique - produisant :

Si un individuje sacrifie leur « propre forme physique équivalente moyenne de 1 » en acceptant un coût de forme physique C, puis pour « récupérer cette perte », wje doit toujours être 1 (ou supérieur à 1). et en utilisant R*B pour représenter les résultats de la sommation dans :

Hamilton est allé au-delà de la parenté pour travailler avec Robert Axelrod, analysant des jeux de coopération dans des conditions n'impliquant pas de parenté où l'altruisme réciproque entre en jeu. [23]

Eusocialité et sélection de parenté Modifier

Les ouvrières eusociales des insectes perdent leurs droits reproductifs sur leur reine. Il a été suggéré que la sélection de la parenté, basée sur la constitution génétique de ces travailleurs, peut les prédisposer à des comportements altruistes. [24] La plupart des sociétés d'insectes eusociales ont une détermination sexuelle haplodiploïde, ce qui signifie que les travailleurs sont inhabituellement étroitement liés. [25]

Cette explication de l'eusocialité des insectes a cependant été contestée par quelques théoriciens des jeux évolutionnaires de renom (Nowak et Wilson) [26] qui ont publié une explication alternative controversée de la théorie des jeux basée sur un développement séquentiel et des effets de sélection de groupe proposés pour ces insectes. espèce. [27]

Le dilemme du prisonnier Modifier

Une difficulté de la théorie de l'évolution, reconnue par Darwin lui-même, était le problème de l'altruisme. Si la base de sélection se situe au niveau individuel, l'altruisme n'a aucun sens. Mais la sélection universelle au niveau du groupe (pour le bien de l'espèce, pas de l'individu) ne réussit pas le test des mathématiques de la théorie des jeux et n'est certainement pas le cas général dans la nature. [28] Pourtant, chez de nombreux animaux sociaux, un comportement altruiste existe. La solution à ce problème peut être trouvée dans l'application de la théorie des jeux évolutionnistes au jeu du dilemme du prisonnier – un jeu qui teste les bénéfices de la coopération ou de l'abandon de la coopération. C'est le jeu le plus étudié de toute la théorie des jeux. [29]

L'analyse du dilemme du prisonnier est comme un jeu répétitif. Cela offre aux compétiteurs la possibilité de riposter en cas de défection lors des tours de jeu précédents. De nombreuses stratégies ont été testées, les meilleures stratégies concurrentielles sont la coopération générale, avec une réponse de rétorsion réservée si nécessaire. [30] Le plus célèbre et l'un des plus réussis d'entre eux est le tit-for-tat avec un algorithme simple.

Le gain pour un seul tour du jeu est défini par la matrice des gains pour un seul tour de jeu (indiqué dans le graphique à barres 1 ci-dessous). Dans les jeux à plusieurs tours, les différents choix – coopérer ou faire défaut – peuvent être faits dans n'importe quel tour particulier, ce qui entraîne un certain gain de tour. Cependant, ce sont les gains cumulés possibles au cours des multiples tours qui comptent dans la formation des gains globaux pour différentes stratégies multi-tours telles que le tit-for-tat.

Exemple 1 : Le jeu simple du dilemme du prisonnier à un tour. Les gains classiques du jeu du dilemme du prisonnier donnent à un joueur un gain maximum s'il fait défection et que son partenaire coopère (ce choix est connu sous le nom de tentation). Si, cependant, le joueur coopère et que son partenaire fait défaut, il obtient le pire résultat possible (le gain des ventouses). Dans ces conditions de gain, le meilleur choix (un équilibre de Nash) est de faire défaut.

Exemple 2 : le dilemme du prisonnier joué à plusieurs reprises. La stratégie employée est tit-for-tat qui modifie les comportements en fonction de l'action entreprise par un partenaire au tour précédent - c'est-à-dire récompenser la coopération et punir la défection. L'effet de cette stratégie dans les gains accumulés sur de nombreux tours est de produire un gain plus élevé pour la coopération des deux joueurs et un gain plus faible pour la défection. Cela supprime la tentation de faire défaut. Le gain des drageons devient également moindre, bien que "l'invasion" par une stratégie de défection pure ne soit pas entièrement éliminée.

Routes vers l'altruisme Modifier

L'altruisme a lieu lorsqu'un individu, à un coût (C) pour lui-même, exerce une stratégie qui procure un avantage (B) à un autre individu. Le coût peut consister en une perte de capacité ou de ressource qui aide dans la bataille pour la survie et la reproduction, ou un risque supplémentaire pour sa propre survie. Les stratégies d'altruisme peuvent survenir à travers :

Il a été soutenu que les comportements humains dans l'établissement de systèmes moraux ainsi que la dépense d'énergies importantes dans la société humaine pour suivre les réputations individuelles est un effet direct de la dépendance des sociétés à des stratégies de réciprocité indirecte. [33]

Les organismes qui utilisent le score social sont appelés discriminateurs et nécessitent un niveau de cognition plus élevé que les stratégies de simple réciprocité directe. Comme l'a dit le biologiste de l'évolution David Haig - "Pour la réciprocité directe, vous avez besoin d'un visage pour la réciprocité indirecte, vous avez besoin d'un nom".

La stratégie évolutivement stable Modifier

La stratégie évolutivement stable (ESS) s'apparente à l'équilibre de Nash dans la théorie des jeux classique, mais avec des critères mathématiquement étendus. L'équilibre de Nash est un équilibre de jeu où il n'est rationnel pour aucun joueur de s'écarter de sa stratégie actuelle, à condition que les autres adhèrent à leurs stratégies. Un ESS est un état de dynamique de jeu où, dans une très grande population de concurrents, une autre stratégie mutante ne parvient pas à entrer dans la population pour perturber la dynamique existante (qui elle-même dépend du mélange de la population). Par conséquent, une stratégie réussie (avec un ESS) doit être à la fois efficace contre les concurrents lorsqu'il est rare - pour entrer dans la population concurrente précédente, et réussie lorsqu'elle est plus tard en forte proportion dans la population - pour se défendre. Cela signifie à son tour que la stratégie doit réussir lorsqu'elle affronte d'autres exactement comme elle. [36] [37] [38]

  • Une stratégie optimale : cela maximiserait la forme physique, et de nombreux états ESS sont bien en deçà de la forme physique maximale réalisable dans un paysage de remise en forme. (Voir le graphique de la colombe ci-dessus à titre d'exemple.)
  • Une solution singulière : souvent plusieurs conditions ESS peuvent exister dans une situation concurrentielle. Un concours particulier peut se stabiliser dans l'une de ces possibilités, mais plus tard, une perturbation majeure des conditions peut déplacer la solution dans l'un des états ESS alternatifs.
  • Toujours présent : il est possible qu'il n'y ait pas de SSE. Un jeu évolutif sans ESS est "pierre-ciseaux-papier", comme on le trouve chez des espèces telles que le lézard à taches latérales (Uta stansburiana).
  • Une stratégie imbattable : l'ESS n'est qu'une stratégie indétrônable.

L'état du SSE peut être résolu en explorant soit la dynamique du changement de population pour déterminer un SSE, soit en résolvant des équations pour les conditions ponctuelles stationnaires stables qui définissent un SSE. [40] Par exemple, dans le jeu de la colombe du faucon, nous pouvons rechercher s'il existe une condition de mélange de population statique où la fitness des colombes sera exactement la même que la fitness des faucons (donc les deux ayant des taux de croissance équivalents - un point statique).

Laissez la chance de rencontrer un faucon=p donc donc la chance de rencontrer une colombe est (1-p)

Laissez Whawk égaler le gain pour le faucon.

Whawk = gain de chance de rencontrer une colombe + gain de chance de rencontrer un faucon

Prendre les résultats de la matrice des gains et les connecter à l'équation ci-dessus :

Assimiler les deux fitness, faucon et colombe

donc pour ce "point statique" où le pourcentage de la population est un ESS résout être ESS(pourcentage de faucon)=V/C

De même, en utilisant des inégalités, il peut être démontré qu'un autre mutant de faucon ou de colombe entrant dans cet état ESS entraîne finalement une moins bonne adéquation pour leur espèce - à la fois un véritable équilibre de Nash et un équilibre ESS. Cet exemple montre que lorsque les risques de blessure ou de décès du concours (le coût C) sont nettement supérieurs à la récompense potentielle (la valeur du bénéfice V), la population stable sera mélangée entre les agresseurs et les colombes, et la proportion de colombes dépassera cette proportion. des agresseurs. Ceci explique les comportements observés dans la nature.

Ciseaux à papier de pierre Modifier

Des ciseaux à papier roche incorporés dans un jeu évolutif ont été utilisés pour modéliser des processus naturels dans l'étude de l'écologie. [41] En utilisant des méthodes d'économie expérimentale, les scientifiques ont utilisé des jeux RPS pour tester les comportements dynamiques évolutifs sociaux humains dans les laboratoires. Les comportements sociaux cycliques, prédits par la théorie des jeux évolutionnaires, ont été observés dans diverses expériences de laboratoire. [42] [43]

Le lézard à taches latérales joue au RPS et à d'autres jeux cycliques Modifier

Le premier exemple de RPS dans la nature a été observé dans les comportements et les couleurs de la gorge d'un petit lézard de l'ouest de l'Amérique du Nord. Le lézard tacheté (Uta stansburiana) est polymorphe avec trois morphes de couleur de gorge [44] qui poursuivent chacun une stratégie d'accouplement différente

  • La gorge orange est très agressive et opère sur un vaste territoire - essayant de s'accoupler avec de nombreuses femelles dans cette plus grande zone
  • La gorge jaune non agressive imite les marques et le comportement des lézards femelles, et se glisse « sournoisement » dans le territoire de la gorge orange pour s'accoupler avec les femelles là-bas (reprenant ainsi la population)
  • La gorge bleue s'accouple avec et garde soigneusement une femelle - ce qui rend impossible le succès des baskets et prend donc leur place dans une population

Cependant les gorges bleues ne peuvent vaincre les gorges oranges plus agressives. Des travaux ultérieurs ont montré que les mâles bleus sont altruistes envers les autres mâles bleus, avec trois traits clés : ils signalent avec la couleur bleue, ils reconnaissent et s'installent à côté d'autres mâles bleus (non apparentés), et ils défendront même leur partenaire contre l'orange, au décès. C'est la marque d'un autre jeu de coopération qui implique un effet de barbe verte. [45] [46]

Les femelles d'une même population ont la même couleur de gorge, ce qui affecte le nombre de descendants qu'elles produisent et la taille de la progéniture, ce qui génère des cycles de densité, encore un autre jeu - le jeu r-K. [47] Ici, r est le paramètre malthusien régissant la croissance exponentielle, et K est la capacité de charge de la population. Les femelles oranges ont des couvées plus grandes et une progéniture plus petite et se portent bien à faible densité. Les femelles jaunes (et bleues) ont des couvées plus petites et une progéniture plus grande et se portent mieux lorsque la population dépasse la capacité de charge et que la population s'effondre à une faible densité. L'orange prend alors le relais et cela génère des cycles perpétuels d'orange et de jaune étroitement liés à la densité de population. L'idée de cycles dus à la régulation de la densité de deux stratégies est née avec Dennis Chitty, qui a travaillé sur les rongeurs, donc ce genre de jeux conduit à des "cycles de Chitty". Il y a des jeux dans des jeux dans des jeux intégrés dans des populations naturelles. Ceux-ci entraînent des cycles RPS chez les mâles avec une périodicité de quatre ans et des cycles r-K chez les femelles avec une périodicité de deux ans.

La situation globale correspond à la pierre, aux ciseaux, au jeu de papier, créant un cycle de population de quatre ans. Le jeu RPS chez les lézards mâles à taches latérales n'a pas d'ESS, mais il a un équilibre de Nash (NE) avec des orbites infinies autour de l'attracteur NE. Depuis lors, de nombreux autres polymorphismes à trois stratégies ont été découverts chez les lézards et certains d'entre eux ont une dynamique RPS fusionnant le jeu mâle et le jeu de régulation de la densité dans un seul sexe (mâles). [48] ​​Plus récemment, il a été démontré que les mammifères hébergent le même jeu RPS chez les mâles et le jeu r-K chez les femelles, avec des polymorphismes de couleur de pelage et des comportements qui entraînent des cycles. [49] Ce jeu est également lié à l'évolution des soins masculins chez les rongeurs et à la monogamie, et entraîne des taux de spéciation. Il existe des jeux de stratégie r-K liés aux cycles de population de rongeurs (et aux cycles de lézards). [50]

Lorsqu'il a lu que ces lézards étaient essentiellement engagés dans un jeu avec une structure pierre-papier-ciseaux, John Maynard Smith se serait exclamé "Ils ont lu mon livre!". [51]

Outre la difficulté d'expliquer comment l'altruisme existe dans de nombreux organismes évolués, Darwin a également été dérangé par une deuxième énigme - pourquoi un nombre important d'espèces ont des attributs phénotypiques qui leur sont manifestement désavantageux en ce qui concerne leur survie - et devrait par le processus de section naturelle être sélectionné contre - par exemple la structure massive de plumes gênante trouvée dans la queue d'un paon. À propos de cette question, Darwin a écrit à un collègue : « La vue d'une plume dans la queue d'un paon, chaque fois que je la regarde, me rend malade. » [52] Ce sont les mathématiques de la théorie des jeux évolutionnistes, qui ont non seulement expliqué l'existence de l'altruisme, mais explique aussi l'existence totalement contre-intuitive de la queue du paon et d'autres encombrements biologiques.

A l'analyse, les problèmes de la vie biologique ne sont pas du tout différents des problèmes qui définissent l'économie - l'alimentation (apparentée à l'acquisition et la gestion des ressources), la survie (stratégie compétitive) et la reproduction (investissement, risque et rendement). La théorie des jeux a été conçue à l'origine comme une analyse mathématique des processus économiques et c'est d'ailleurs pourquoi elle s'est avérée si utile pour expliquer tant de comportements biologiques. Un autre raffinement important du modèle de la théorie des jeux évolutionniste qui a des connotations économiques repose sur l'analyse des coûts. Un modèle de coût simple suppose que tous les concurrents subissent la même pénalité imposée par les coûts du jeu, mais ce n'est pas le cas. Les joueurs les plus performants seront dotés ou auront accumulé une « réserve de richesse » ou une « abordabilité » plus élevée que les joueurs moins performants. Cet effet de richesse dans la théorie des jeux évolutionniste est représenté mathématiquement par le « potentiel de détention de ressources (RHP) » et montre que le coût effectif pour un concurrent avec un RHP plus élevé n'est pas aussi élevé que pour un concurrent avec un RHP plus faible. Comme un individu RHP plus élevé est un partenaire plus souhaitable pour produire une progéniture potentiellement réussie, il est logique qu'avec la sélection sexuelle, RHP ait évolué pour être signalé d'une manière ou d'une autre par les rivaux concurrents, et pour que cela fonctionne, cette signalisation doit être effectuée. franchement. Amotz Zahavi a développé cette réflexion dans ce que l'on appelle le "principe du handicap", [53] où les concurrents supérieurs signalent leur supériorité par un affichage coûteux. Comme les individus à RHP plus élevé peuvent se permettre un affichage aussi coûteux, cette signalisation est intrinsèquement honnête et peut être considérée comme telle par le récepteur de signal. Dans la nature, cela est illustré que dans le plumage coûteux du paon. La preuve mathématique du principe du handicap a été développée par Alan Grafen en utilisant la modélisation évolutionnaire de la théorie des jeux. [54]

  • Jeux évolutifs qui conduisent à une situation stable ou à un point de stase pour des stratégies conflictuelles qui aboutissent à une stratégie évolutivement stable
  • Jeux évolutifs qui présentent un comportement cyclique (comme avec le jeu RPS) où les proportions de stratégies rivales cycle continuellement au fil du temps au sein de la population globale

Une troisième, coévolutive, dynamique, combine compétition intra-spécifique et inter-spécifique. Les exemples incluent la compétition prédateur-proie et la co-évolution hôte-parasite, ainsi que le mutualisme. Des modèles de jeu évolutifs ont été créés pour les systèmes coévolutifs par paires et multi-espèces. [56] La dynamique générale diffère entre les systèmes concurrentiels et les systèmes mutualistes.

Dans un système coévolutif inter-espèces compétitif (non mutualiste), les espèces sont impliquées dans une course aux armements - où les adaptations qui sont mieux en compétition avec les autres espèces ont tendance à être préservées. Les gains du jeu et la dynamique du réplicateur reflètent cela. Cela conduit à une dynamique de la reine rouge où les protagonistes doivent "courir aussi vite qu'ils le peuvent pour rester au même endroit". [57]

Un certain nombre de modèles de théorie des jeux évolutionnistes ont été produits pour englober des situations de coévolution. Un facteur clé applicable dans ces systèmes coévolutifs est l'adaptation continue de la stratégie dans de telles courses aux armements. La modélisation coévolutive inclut donc souvent des algorithmes génétiques pour refléter les effets mutationnels, tandis que les ordinateurs simulent la dynamique du jeu coévolutif global. La dynamique résultante est étudiée au fur et à mesure de la modification de divers paramètres. Parce que plusieurs variables sont en jeu simultanément, les solutions deviennent le domaine de l'optimisation multivariable. Les critères mathématiques de détermination des points stables sont l'efficacité de Pareto et la dominance de Pareto, une mesure des pics d'optimalité de solution dans les systèmes multivariables. [58]

Carl Bergstrom et Michael Lachmann appliquent la théorie des jeux évolutionnaires à la division des bénéfices dans les interactions mutualistes entre les organismes. Les hypothèses darwiniennes sur la fitness sont modélisées à l'aide de la dynamique des réplicateurs pour montrer que l'organisme évoluant à un rythme plus lent dans une relation mutualiste gagne une part disproportionnellement élevée des avantages ou des bénéfices. [59]

Un modèle mathématique analysant le comportement d'un système doit d'abord être aussi simple que possible pour aider à développer une base de compréhension des fondamentaux, ou « effets de premier ordre », relatifs à ce qui est étudié. Une fois cette compréhension en place, il convient alors de voir si d'autres paramètres plus subtils (effets de second ordre) ont un impact supplémentaire sur les comportements primaires ou façonnent des comportements supplémentaires dans le système. À la suite des travaux fondateurs de Maynard Smith en théorie des jeux évolutionnistes, le sujet a connu un certain nombre d'extensions très importantes qui ont permis de mieux comprendre la dynamique évolutive, en particulier dans le domaine des comportements altruistes.Certaines de ces extensions clés de la théorie des jeux évolutionnistes sont :

Jeux spatiaux Modifier

Les facteurs géographiques de l'évolution comprennent le flux de gènes et le transfert horizontal de gènes. Les modèles de jeux spatiaux représentent la géométrie en plaçant les concurrents dans un réseau de cellules : les concours n'ont lieu qu'avec des voisins immédiats. Les stratégies gagnantes s'emparent de ces quartiers immédiats puis interagissent avec les quartiers adjacents. Ce modèle est utile pour montrer comment des poches de coopérateurs peuvent envahir et introduire l'altruisme dans le jeu Prisoners Dilemma, [60] où Tit for Tat (TFT) est un équilibre de Nash mais PAS aussi un ESS. La structure spatiale est parfois abstraite en un réseau général d'interactions. [61] [62] C'est le fondement de la théorie évolutionniste des graphes.

Effets d'avoir des informations Modifier

Dans la théorie des jeux évolutionniste comme dans la théorie des jeux conventionnelle, l'effet de la signalisation (l'acquisition d'informations) est d'une importance critique, comme dans la réciprocité indirecte dans le dilemme des prisonniers (où les compétitions entre les mêmes individus appariés ne sont PAS répétitives). Cela modélise la réalité de la plupart des interactions sociales normales qui ne sont pas liées à la parenté. À moins qu'une mesure de probabilité de réputation ne soit disponible dans Prisoners Dilemma, seule la réciprocité directe peut être obtenue. [31] Avec cette information, la réciprocité indirecte est également prise en charge.

Alternativement, les agents peuvent avoir accès à un signal arbitraire initialement non corrélé à la stratégie mais qui devient corrélé en raison de la dynamique évolutive. C'est l'effet barbe verte (voir les lézards à taches latérales, ci-dessus) ou l'évolution de l'ethnocentrisme chez l'homme. [63] Selon le jeu, il peut permettre l'évolution soit d'une coopération soit d'une hostilité irrationnelle. [64]

Du niveau moléculaire au niveau multicellulaire, un modèle de jeu de signalisation avec asymétrie d'information entre l'émetteur et le récepteur pourrait être approprié, comme l'attraction du partenaire [54] ou l'évolution de la machinerie de traduction à partir de chaînes d'ARN. [65]

Populations finies Modifier

De nombreux jeux évolutifs ont été modélisés en populations finies pour voir l'effet que cela peut avoir, par exemple dans le succès des stratégies mixtes.


Commentaires des évaluateurs

Revue #1 : P. Lopez-Garcia, Centre National de la Recherche Scientifique, France

Le manuscrit présente une certaine originalité et commente des aspects importants du passage de la chimie à la biologie. Je trouve le style un peu complexe et pas très clair même si les idées sont intéressantes (mais pas forcément inédites). Il mérite d'être publié, le style littéraire pourrait être amélioré.

Je remercie la relectrice pour ses commentaires, en particulier lorsqu'elle trouve que le manuscrit a une certaine originalité. Concernant le style littéraire, j'ai essayé de l'améliorer.

Dans ce manuscrit, M. Tessera examine de manière critique divers modèles sur l'origine de la vie et s'interroge plus spécifiquement sur la question de savoir si ces modèles impliquent une évolution (chimique) pré-darwinienne avant l'évolution darwinienne caractéristique des systèmes ouverts loin de l'équilibre qui sont considérés comme vivants. . Le sous-ensemble de modèles choisis est classé en trois catégories : les modèles métabolisme d'abord, réplicateur d'abord et métabolisme-réplicateur couplé. Bon nombre des critiques et des préoccupations soulignées par Tessera ont déjà été soulevées par des auteurs précédents, il les revisite dans le contexte d'une transition de l'évolution chimique à l'évolution darwinienne (biologique). Dans l'ensemble, les idées résumées dans cette revue critique sont stimulantes pour la recherche sur la transition chimie-biologie. J'ai, cependant, quelques commentaires : - Mon commentaire principal est que les définitions de l'évolution darwinienne et pré-darwinienne sont quelque peu floues et cela affecte si un système est considéré comme évoluant par l'évolution darwinienne ou pré-darwinienne. La définition de l'évolution darwinienne est plus évidente, cela correspond à une variation codée (génétiquement héritée) sur laquelle agit la sélection naturelle. L'évolution pré-darwinienne implique une évolution chimique. Mais un système où le génotype et le phénotype ne sont pas (encore) couplés (c'est-à-dire contenant un réplicateur plus des composants non codés) évolue-t-il via une évolution pré-darwinienne ou darwinienne ? Par exemple, Tessera prétend que les vésicules lipidiques produites dans les environs des évents alcalins et agissant comme des réacteurs chimiques qui incluent éventuellement des réplicateurs présentent une évolution darwinienne depuis le début. Cependant, ces réacteurs lipidiques-vésicules initiaux ne sont pas codés (même s'il y a des réplicateurs à l'intérieur), donc en principe, il devrait également représenter une transition d'évolution pré-darwinienne à darwinienne comme dans d'autres modèles. - Personnellement, je trouve que les modèles amphiphiles-vésicules impliquant un métabolisme coévoluant et des systèmes de réplication sont les plus plausibles en pratique pour l'origine de la vie sur Terre. Cependant, même si ces systèmes montraient une évolution darwinienne depuis le début (ce que j'ai interrogé ci-dessus), ce simple fait (évolution darwinienne depuis le début) les qualifie-t-il comme plus probable que les modèles où une transition d'évolution pré-darwinienne/darwinienne est requise ? Si oui, pourquoi?

Comme je le précise dans le « Contexte » du manuscrit je préfère utiliser l'expression « évolution pré-darwinienne » au lieu de « évolution prébiotique » car le concept de vie est très discutable selon moi, finalement discutable [8,9,10,11,12] tandis que le mécanisme de l'évolution darwinienne peut être bien défini. Ainsi, je choisis de ne pas utiliser de mots comme « vivant », « vie », « organismes vivants », « biotique », « prébiotique » etc. sauf quand les chercheurs que je cite les utilisent. J'aurais préféré utiliser le terme « évolution de niveau 4 » au lieu de « évolution darwinienne » conformément à l'affirmation selon laquelle il existe quatre niveaux fondamentaux d'évolution [67]. Malheureusement, la communauté scientifique pour s'y référer n'accepte pas encore ce point de vue. Je trouve discutable le concept d'« évolution prédarwinienne ». Par conséquent, je ne peux pas en trouver une définition précise. Selon moi, « l'évolution pré-darwinienne » ne peut être définie qu'en référence à la définition de « l'évolution darwinienne ». Je suis d'accord avec le critique que le génotype et le phénotype doivent être couplés. Par exemple, le génotype est représenté par les sites membranaires dans mon modèle et le phénotype par les molécules à base de carbone catalysées par ces derniers car ils peuvent impacter la structure et les fonctions de la membrane. Le génotype et le phénotype sont clairement couplés car ils forment un hypercycle. Lorsque les vésicules se sont multipliées, les vésicules filles ont hérité des deux génotypes (c'est à dire. sites membranaires) et le phénotype (c'est à dire., molécules carbonées) soit directement lorsque l'hypercycle a été transmis aux vésicules filles, soit indirectement lorsqu'un seul élément a été transmis mais capable de reconstruire l'hypercycle [10]. Ainsi, des lignées distinctes se sont formées sur lesquelles la sélection naturelle aurait pu opérer. Une fois les vésicules lipidiques dotées de capacités de multiplication formées, l'évolution darwinienne aurait émergé en une seule étape avec l'apparition d'arrangements spécifiques des amphiphiles parmi un grand nombre de combinaisons dans la partie interne de la membrane bicouche. Les seuls processus prédarwiniens à l'œuvre étaient la formation de vésicules lipidiques dotées de capacités de multiplication et la sélection des plus viables. Enfin, je pense que seule l'évolution darwinienne aurait pu conduire à une évolution de la complexité au fil du temps. Pour éviter toute ambiguïté, je réponds maintenant clairement à la question de la plausibilité de l'évolution pré-darwinienne. Bien entendu, je confirme dans le manuscrit que la réponse à la question posée dans le titre est un préalable à la compréhension de l'origine de l'évolution darwinienne.

Pourquoi ne pas inclure le monde fer-soufre de Wächtershäuser dans la comparaison ? Je comprends qu'il a de graves problèmes, notamment dans le passage à la cellularisation. Néanmoins, c'est l'un des modèles les plus influents et pas moins problématique que le jardin chimique de Russell. Au moins, certaines de ses prédictions chimiques ont été prouvées. – Chiralité.

Le modèle mondial fer-soufre de Wächtershäuser est maintenant analysé dans le manuscrit.

Le fait que de nombreux modèles n'abordent pas la question de la chiralité n'implique pas qu'ils peuvent ne pas s'adapter à une explication de la chiralité. L'absence de preuve n'est pas la preuve d'absence. Je suppose que dans beaucoup de ces modèles, la chiralité est simplement considérée comme une sorte de conséquence du hasard. Une fois que vous avez commencé à incorporer un isomère particulier, le choix a été maintenu de manière sélective. - Cela m'amène à mon dernier commentaire général. Le rôle du hasard est ignoré dans cette revue. Dans le domaine de la biologie, l'évolution darwinienne n'est pas un synonyme complet d'évolution biologique car en plus des processus sélectifs, il existe une dérive génétique. Qu'en est-il de la dérive prégénétique ? Ce n'est pas anodin car même si l'on obtient des preuves expérimentales d'un modèle particulier, cela ne signifie pas qu'historiquement la vie est née de cette façon. Cela ne fournirait qu'une base argumentative pour ne pas écarter un modèle particulier.

Pour sûr, la chiralité a émergé heureusement. Dans mon modèle, le hasard aurait été à l'œuvre lorsque la catalyse mutuelle est apparue pour la première fois dans des vésicules lipidiques à membranes hétérogènes. Même si l'émergence d'une catalyse mutuelle était permise par la structure de la membrane vésiculaire composée d'un mélange d'amphiphiles le hasard aurait joué son rôle. Cela s'est produit lorsqu'un arrangement spécifique d'amphiphiles est apparu parmi le grand nombre de combinaisons d'arrangements possibles. Il a pu catalyser la synthèse d'une molécule spécifique à base de carbone. Ce dernier composé soluble avait la propriété de catalyser la transformation de l'arrangement membranaire local en un site membranaire stabilisé. Le hasard aurait de nouveau opéré lorsque de petites molécules spécifiques à base de carbone ont conduit à la synthèse d'une molécule plus grosse avec un atome de carbone à centre chiral. Certes, dans les autres modèles, le hasard a peut-être aussi joué son rôle pour faire apparaître la chiralité, mais les chercheurs devraient présenter une explication rationnelle et plausible. Je suis d'accord que la dérive génétique aurait dû jouer son rôle. Il n'y a aucune raison particulière pour laquelle cela ne se serait pas produit dans mon modèle. Je ne comprends pas ce que le critique entend par « dérive pré-génétique ».

Examen #2 : A. Poole, Université de Stockholm, Suède

Ce manuscrit a un titre prometteur. Malheureusement, le manuscrit semble plutôt se concentrer davantage sur une critique détaillée des lacunes de certains des modèles les plus connus de l'origine de la vie. Les principaux problèmes que l'auteur met en évidence sont de savoir si les modèles traitent de manière adéquate des problèmes tels que la chiralité ou l'évolution darwinienne. Un examen plus approfondi des différents modèles serait utile tel que présenté, cette partie de l'examen est un peu trop inégale et nécessite des explications plus claires des modèles proposés avant de se lancer dans la critique. La section qui traite de la question posée dans le titre est trop brève - il ne s'agit que de quelques lignes à la page 13 (lignes 1 à 25), où l'auteur présente quatre « niveaux » d'évolution. Ceci n'est pas référencé, mais il note que « l'évolution » est plus large que « l'évolution darwinienne ». Cependant, la question posée dans le titre n'est pas vraiment discutée en profondeur et, pour moi, n'a pas élargi la discussion existante autour de cette question intéressante. L'impression que j'ai eue en lisant l'article était que la réponse de l'auteur à la question qu'il posait était « oui, mais ce n'est pas important ».

Grâce au critique, j'ai réalisé que mon point de vue sur la plausibilité de l'évolution pré-darwinienne n'était pas aussi clair car il y avait un malentendu dans l'impression du critique de mon opinion à ce sujet. Cet essai met en évidence les aspects critiques de la plausibilité de l'évolution pré-darwinienne. Il est basé sur un examen critique de certains scénarios basés sur des systèmes ouverts et loin de l'équilibre, plus connus, censés expliquer les processus qui ont eu lieu avant l'émergence de l'évolution darwinienne et qui ont abouti à l'origine des premiers systèmes capables d'évolution darwinienne. Chaque modèle a été évalué en fonction des réponses des chercheurs à huit questions cruciales qui devraient être abordées (Tableau 1). J'ai essayé de résumer les modèles aussi bien que possible en utilisant autant que possible la formulation des chercheurs mais, assurément, mes rapports ne peuvent pas être totalement exhaustifs et impartiaux. J'apprécie la citation du critique de notre proposition, G. Hoelzer et moi, qu'il existe quatre niveaux fondamentaux d'évolution [67]. Conformément à notre affirmation, j'aurais préféré utiliser le terme « évolution de niveau 4 » au lieu de « évolution darwinienne ». Malheureusement, la communauté scientifique pour s'y référer n'accepte pas encore ce point de vue. Je trouve le concept d'« évolution pré-darwinienne » discutable. Il est peu probable, voire impossible, qu'une évolution de la complexité dans le temps ait pu fonctionner sans multiplication et héritabilité. Seule l'évolution darwinienne aurait conduit à une telle évolution. Soit dit en passant, les seuls processus prédarwiniens à l'œuvre dans le modèle que je propose étaient la formation de vésicules lipidiques avec des capacités de multiplication et la sélection des plus viables. Ce n'est qu'après que l'évolution darwinienne aurait émergé par hasard en une seule étape avec l'apparition d'arrangements spécifiques des amphiphiles parmi un grand nombre de combinaisons dans la partie interne de la membrane bicouche. Pour éviter toute ambiguïté, je réponds maintenant clairement à la question de la plausibilité de l'évolution pré-darwinienne. Bien entendu, je confirme dans le manuscrit que la réponse à la question posée dans le titre est un préalable à la compréhension de l'origine de l'évolution darwinienne.

Revue n°3 : D. Lancet, Weizmann Institute of Science, Israël

Comme indiqué, je vérifie si les commentaires originaux de l'arbitre ont été traités selon des normes satisfaisantes. Mes propres commentaires se réfèrent à la version révisée (R1). Réviseur 1 Points 1,3, sont traités de manière satisfaisante par l'auteur. Le point 2 (début « Dans ce manuscrit, M. Tessera examine de manière critique divers modèles sur l'origine de la vie… ») est valide et n'a pas été entièrement traité. Dans l'abstrait, les auteurs présentent la conclusion suivante : « De cette revue critique, il est (déduit) que le concept d'« évolution pré-darwinienne » apparaît discutable, notamment parce qu'il est peu probable voire impossible qu'une évolution de la complexité dans le temps peut fonctionner sans multiplication et héritabilité. Seule l'évolution darwinienne aurait pu conduire à une telle évolution. Ainsi, l'évolution pré-darwinienne n'est pas plausible selon l'auteur ». Comment alors l'attribut « Pré-darwinien » peut-il apparaître pour n'importe quel modèle dans la dernière colonne du tableau, une colonne intitulée « évolution initiale » ? J'ai lu la conclusion de l'auteur ci-dessus comme impliquant que tous les processus chimiques qui ont eu lieu avant l'avènement de l'évolution darwinienne ne peuvent pas du tout être appelés évolution. En effet, l'auteur applique les mêmes critères nécessaires (multiplication et héritabilité conduisant à la complexification) à la fois à l'évolution pré-darwinienne et darwinienne. Ainsi, si les critères ne sont pas remplis, nous n'avons ni évolution darwinienne ni pré-darwinienne. Mais alors, pour éviter la confusion sur laquelle le critique 1 et moi-même sommes d'accord, le titre de l'article devrait être « quels processus chimiques ont conduit à l'évolution darwinienne ». Point 4 commençant par « Le fait que de nombreux modèles n'abordent pas la question de la chiralité n'implique pas qu'ils ne peuvent pas accepter une explication de la chiralité ». Je suis tout à fait d'accord avec ce commentaire et j'estime qu'il n'a pas été suffisamment pris en compte. Les nombreux modèles qui ont la valeur « pas un problème » et « non abordé » dans la colonne intitulée « Problème de chiralité » du tableau de l'article, attestent de l'idée que l'homochiralité ne doit pas servir de critère pour juger de l'évolution de quelque nature que ce soit. Ceci est, en fait, étayé par l'inférence de l'auteur basée sur un de nos articles (Réf 52) : « Le modèle C-GARD mettrait en évidence la possibilité que la sélection chirale soit le résultat, plutôt qu'une condition préalable, des processus précoces ressemblant à la vie. et n'aurait donc pas été un problème ». Je suggère fortement que le critère d'évolution d'un problème soit complètement éliminé. Réviseur 2 Je suis d'accord avec le commentaire de ce réviseur : « Un examen plus approfondi des différents modèles serait utile tel que présenté, cette partie de l'examen est un peu trop inégale et nécessite des explications plus claires sur les modèles proposés avant de se lancer dans la critique ». Je souhaite appuyer ce commentaire en abordant l'exemple de mon propre modèle (GARD), en indiquant les corrections nécessaires. L'auteur doit s'il vous plaît revérifier que la description d'autres modèles n'a peut-être pas été affectée de la même manière. Voici les points qui doivent être corrigés dans la description du modèle GARD : 1) L'énoncé de l'auteur : « Le modèle est également basé sur l'idée que les systèmes auto-organisés hors équilibre ont des propriétés dynamiques qui existent dans un état proche de comportement chaotique permettant l'émergence de cycles autocatalytiques… » n'est pas correct. Dans le modèle GARD (comme dans d'autres modèles similaires) l'émergence de réseaux mutuellement catalytiques (pas de « cycles autocatalytiques », terme restrictif) est permise uniquement par la nature des molécules, c'est-à-dire leur capacité à exercer une catalyse les unes sur les autres, indépendamment du comportement chaotique. 2) L'auteur dit : « …des ensembles catalytiques mutuels comme alternative à l'héritage basé sur l'alphabet ». Le modèle GARD a une forme d'héritage basé sur l'alphabet. La différence cruciale entre GARD et un modèle de biopolymère est que le premier accumule et reproduit des informations de composition (comptes de lettres chimiques « alphabet »), tandis que le second englobe des informations de séquence (ordre des lettres chimiques « alphabet »). 3) Le texte actuel proclame : « Une caractéristique de base de GARD est que les assemblages moléculaires non covalents, semblables à des micelles, capables de croître de manière homéostatique (c'est-à-dire suffisamment tamponnés pour maintenir la stabilité) conformément à la constitution de l'assemblage, stockent les informations de composition qui peuvent être propagées après la fission occasionnelle (c'est-à-dire la division de l'assemblage) ». Cette phrase déroutante devrait mieux se lire : « Une caractéristique de base de GARD est que les assemblages moléculaires non covalents, semblables à des micelles, sont capables de croître de manière homéostatique, c'est-à-dire de maintenir catalytiquement la composition de l'assemblage au fur et à mesure de sa croissance (tampon dynamique). Les informations de composition conservées peuvent être propagées aux assemblages de descendance lors d'une fission occasionnelle ». 4) L'auteur déclare, sur la base de la réf. 47, que « concernant l'évolutivité du système, il a été récemment démontré que la réplication des informations de composition (dans GARD) est si imprécise que des génomes de composition plus adaptés ne peuvent pas être maintenus par sélection ». Cette critique est vivement contestée, comme l'illustre l'un de nos articles [PMID : 22662913], et il serait juste de rendre cette affirmation moins catégorique et de citer le point de vue alternatif. 5) L'auteur dit (sur la base des références 49-51) : « De plus, il n'y a aucune raison pour que les « informations sur la composition » auraient dû être transférées aux vésicules lipidiques de la membrane bicouche alors que celles-ci auraient pris le relais des« assemblages moléculaires de type micelle ». " Cette déclaration est basée sur un malentendu et doit être omise.Le modèle GARD n'invoque pas la capacité d'une petite micelle à conférer sa composition à un ensemble vésiculaire beaucoup plus gros en fusionnant avec elle. Il évoque plutôt la possibilité que la croissance homéostatique via l'accrétion d'une seule molécule puisse progressivement conduire à des assemblages de plus en plus gros ayant une composition similaire à celle de la micelle d'origine. Retour aux commentaires de l'examinateur 2: une négativité radicale de cet examinateur se manifeste dans la déclaration « … la question posée dans le titre n'est pas vraiment discutée en profondeur et, pour moi, n'a pas élargi la discussion existante autour de cette question intéressante » . Ceci, à mon avis, est exagéré. Je pense qu'il y a de la valeur dans cette revue, justifiant la publication dans Biology Direct.

Je remercie le rapporteur pour ses commentaires utiles. En ce qui concerne le modèle GARD, j'ai modifié la phrase lorsque j'ai convenu avec l'examinateur qu'elle était incorrecte (par exemple., la caractéristique de base de GARD). Quand une question est contestée, je la mentionne encore avec les arguments, c'est à dire., les critiques et les contre-arguments, c'est à dire., la réponse de l'examinateur (par exemple., la question de l'évolutivité et du transfert de l'information compositionnelle). En ce qui concerne la question chirale, je ne peux pas convenir que l'homochiralité ne devrait pas servir de critère pour juger de l'évolution de la complexité au fil du temps. Bien qu'elle ne soit pas abordée dans la plupart des modèles, cela ne signifie pas que la question chirale n'est pas cruciale. Comme l'examinateur l'a remarqué, je présente les résultats de ses simulations tendant à soutenir le point de vue de l'examinateur selon lequel la sélection chirale est le résultat plutôt qu'une condition préalable aux premiers processus de la vie et n'aurait donc pas été un problème. Cependant, j'observe également que l'affirmation des auteurs soutenant la pertinence de ces simulations semble irréaliste, c'est à dire., que, dans l'environnement prébiotique, il y aurait eu des structures moléculaires suffisamment complexes permettant de supposer que toutes les molécules étaient chirales. Enfin, je pense que le nouveau titre du manuscrit proposé par le relecteur ne correspond pas à l'objectif du manuscrit, c'est à dire., pour soutenir l'opinion selon laquelle l'évolution pré-darwinienne n'est pas plausible. Selon ce point de vue, les processus probables qui auraient eu lieu et auraient permis l'évolution de la complexité au fil du temps avant l'émergence de l'évolution darwinienne ne sont pas satisfaisants. Dans mon modèle, les seuls processus pré-darwiniens à l'œuvre sont la formation de vésicules lipidiques avec des capacités de multiplication et la sélection des plus viables. Ces processus ne sont pas suffisants pour permettre une évolution de la complexité dans le temps.

Revue n°4 : T. Dandekar, Département de bioinformatique, Université de Würzburg, Allemagne

L'article montre que l'évolution purement pré-darwinienne n'existe pas, en examinant différents exemples d'évolution chimique et les différents aspects majeurs qu'ils couvrent. Ce tableau présente quelques nouveaux résultats comparatifs. La conclusion est que même dans les modèles d'évolution chimique, il y a un élément héréditaire impliqué, donc selon l'auteur, une évolution darwinienne. 2. Je pense qu'il vaut la peine d'insister sur ce point et la comparaison avec les modèles chimiques souligne ce point de manière appropriée et cela justifie une publication 3. Ce qui pourrait être ajouté serait quelques implications supplémentaires, par exemple si tout type d'évolution a toujours besoin d'un élément de l'hérédité, cela (plus d'informations sont transmises à la génération suivante) augmente-t-il alors toujours la vitesse d'évolution ? 3b. Déterminer alors s'il y a évolution revient-il toujours à identifier un élément héréditaire (ou stockage d'informations) ? 4. Bien sûr, en choisissant la définition appropriée, vous pouvez toujours avoir raison en tant qu'auteur, mais probablement, par une telle définition de l'évolution, vous ignorez largement la classe plus générale et plus vaste des processus d'auto-organisation, n'est-ce pas ? 4b. Donc ma principale inquiétude est qu'en définissant les termes et les choses comme vous le faites, vous pouvez vous débarrasser de l'évolution pré-darwinienne (comme vous prétendez qu'il y a toujours une hérédité nécessaire), cependant, vous devenez alors aveugle pour la classe nombreuse, intéressante et importante. de phénomènes d'auto-organisation en physique et en chimie qui se produisent sans aucun stockage de gènes ou tout autre stockage direct.

Je suis d'accord avec le critique qu'il serait moins contraignant aux fins de la recherche de l'origine de la vie si l'évolution pré-darwinienne était plausible. Cela ouvrirait la recherche pour inclure des phénomènes d'auto-organisation en physique et en chimie qui se produisent sans aucun stockage de gènes ou tout autre stockage direct de ce type. Je ne pense pas que ce soit une question de définition, comme par exemple la définition de la vie. L'évolution darwinienne est un mécanisme. Il fonctionne car il permet l'évolution de la complexité dans le temps, il est basé, entre autres, sur la sélection naturelle sur des lignées distinctes. Sans stockage d'informations et sans possibilité de transfert à la descendance, aucune lignée ne peut émerger. Ainsi, la sélection naturelle ne peut opérer et permettre une évolution de la complexité dans le temps.


Voir la vidéo: Osa 16 Kaipaako evoluutioteoria uudistusta? (Janvier 2023).