Cecaspen
Expert Level 5
Opciones
- Marcar como nuevo
- Favorito
- Suscribir
- Suscribirse a un feed RSS
- Resaltar
- Imprimir
- Informe de contenido inapropiado
el 05-20-2025 11:05 AM
#WithGalaxy
Los riesgos de tomar a la inteligencia artificial como terapeuta o confidente virtual


Estudios recientes revelan que jóvenes entre 15 y 25 años usan chatbots como apoyo emocional, desplazando a los vínculos humanos y la ayuda profesional. Cuáles son los riesgos
-La Generación Z se vincula emocionalmente con la inteligencia artificial, que actúa como consejera, amiga o confidente virtual-
Hace unos días una nota en Infobae trataba sobre la difusión de los métodos para “luchar contra la depresión”, por parte del afamado cantante de Coldplay Chris Martin.
Allí mencionaba una serie de recetas (tips) que le habrían dado, según sus dichos, resultado. Entre ellos nombraba un “método” con nombre propio, cosa que en general suele dar un aura de validez.
En realidad, el caso de Chris Martin ilustra algo que es conocido desde hace décadas, quizás siglos y son los métodos de “autoayuda”.
La palabra autoayuda en una mirada superficial, sin duda, nos señala algo irreprochable y de suma utilidad, pero tiene un aspecto contrapuesto y son los autodiagnósticos y, aún más preocupante, los tratamientos autoadministrados.
Respecto a estos métodos, basta mirar cualquier plataforma de videos o redes sociales, etc., para ver que infinidad de personas de la más diversa extracción enuncian fórmulas infalibles y de resultados casi mágicos.
En muchos casos esto va recubierto de una especie de fantasía y es que saliendo de los senderos habituales, existe un saber oculto que es mantenido así por el “sistema dominante”, pero que puede significar avances inimaginables...
Artículo completo*: https://www.infobae.com/salud/2025/05/20/los-riesgos-de-tomar-a-la-inteligencia-artificial-como-tera...
* El doctor Enrique De Rosa Alabaster se especializa en temas de salud mental.
○○○○○○○○○○
0 Comentarios
