Podemos entrenar a una máquina en buenos modales como son el dar gracias o pedir perdón. Debemos tener presente, sin embargo, que esas máquinas desconocen lo que es el agradecimiento y el arrepentimiento. Eso no es ética sino etiqueta, mera fachada. Quienes hablan de máquinas con ética se refieren a la necesidad de controlar con principios éticos a las máquinas que toman decisiones. El ejemplo típico es del coche autónomo. Cuando detecta un niño que se ha escapado de sus padres para saludar a sus abuelos que avanzan por la acera opuesta, el coche afronta un dilema ético. Si el freno automático no se activa al 100% morirá el niño, pero de hacerlo pondría en riesgo la vida de los cuatro viajeros. Si gira a la derecha atropellaría a los jóvenes padres; si lo hace a la izquierda, a los abuelos. Para resolver este dilema, los programadores exigen al Parlamento que les informe del valor monetario que atribuye a cada vida humana. No hace falta decir que eso es un disparate típico del utilitarismo más burdo. Las corrientes filosóficas humanistas, rechazan atribuir a un hombre el poder para decidir sobre la vida de otro. Todavía más ingenuo sería preguntar a una máquina sobre la moralidad de la conducta que tiene planeada. O encargar a una IAe la educación ética de sus hijos o alumnos. ¿Quién escogería los criterios éticos? ¿Y cómo entrenaríamos a una máquina en los principios morales? Las máquinas con IA no son inteligentes porque no piensan, aunque sí potencian a la inteligencia humana. Las IA no pueden tener ética, ni potenciar la moralidad de las personas. La ética es un atributo exclusivo de las personas pues solo ellas tienen una conciencia moral que les permite discernir el bien y el mal, y que decide y actúa con libertad y responsabilidad.