Bonjour.
Un certain ASIMOV a beaucoup raisonné sur ce thème et je vous invite à lire ses nouvelles concernant les robots. (en source le tome 1...)
Il a ainsi proposé les trois lois de la robotiques ci-dessous reprises:
1 Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
2 Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
3 Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.
Vous voyez que si l'on veut poursuivre le jeu de la comparaison, malheureusement la première loi entre autre est contre-dite par l'actualité...L'homme ne l respecte pas. Du moins pas toujours.
Adolescent, j'ai moi aussi souvent réfléchi à la comparaison homme machine-intelligente. Lorsque l'on lit Asimov, c'est assez troublant de considérer leur proximité. Lorsque l'on regarde les développements de la robotique américaine en particulier, ce qui trouble c'est qu'il existe des points de convergence avec ce qu'écrivait Asimov...(sic l'auteur)
Mais à y bien réfléchir, la ressemblance est je pense due au fait que nous imaginons des machines 'à notre image'...
D'autre part l'un des dirigeants de ces grosses entreprises de robotique précitées est un fan d'Asimov...ce qui explique sans doute que le sens de l'évolution ressemble à ce que l'auteur avait écrit.
Une différence m'apparait enfin évidente. Si la machine tombe en panne définitivement, on peut envisager de la reconstruire à l'identique (après sauvegarde de sa mémoire). Pour ce qui concerne l'homme, ce n'est aujourd'hui pas possible même si certains l'envisagent à plus ou moins long terme (transhumanistes).