Un informe sociológico revela una brecha generacional y una fuerte desconfianza social ante los riesgos de la IA en la Región de Murcia

Más de la mitad de la población de la Región de Murcia afirma no utilizar en ningún caso herramientas de inteligencia artificial. Así lo concluye un estudio sociológico elaborado por la Universidad Católica de Murcia (UCAM), que sitúa en el 54,9 % el porcentaje de murcianos que aseguran no hacer uso de esta tecnología, pese a su creciente presencia en dispositivos y aplicaciones de uso cotidiano. El trabajo, basado en 800 encuestas realizadas entre el 18 y el 28 de noviembre de 2025, dibuja un escenario marcado por la brecha generacional, el uso aún limitado en el ámbito laboral y una percepción social dominada por el temor a los riesgos asociados a la IA.
Frente a ese 54,9 % que declara no usarla, un 36,8 % reconoce algún tipo de interacción consciente con la inteligencia artificial. De ellos, el 11,6 % afirma emplearla con fines personales, el 7,3 % exclusivamente profesionales y un 17,9 % de forma combinada. Además, un 8,3 % de las personas encuestadas no sabe o no contesta, un dato que, según los investigadores, refuerza la idea de que una parte de la población utiliza estas tecnologías sin identificarlas claramente como inteligencia artificial.
Brecha generacional y diferencias por perfil social y político
El estudio pone de relieve una clara fractura generacional en el uso de la IA. Entre los jóvenes de 18 a 30 años, el 61,3 % afirma utilizarla de alguna manera, una cifra que contrasta con el 17,8 % registrado entre las personas de 65 años o más. Esta diferencia se acentúa cuando se analiza el uso profesional: mientras que el 18,7 % de los jóvenes reconoce emplear la IA en su trabajo, entre los mayores esta proporción cae hasta el 2,2 %.
Más allá de la edad, el informe también detecta diferencias en función del recuerdo de voto. Aunque el “no uso” de la inteligencia artificial es mayoritario en todos los casos, el tipo de utilización varía según el perfil político. Entre los votantes del PSOE destaca un mayor peso del uso exclusivamente profesional, que alcanza el 15 %, mientras que entre los votantes de UP/Sumar predomina el uso personal, con un 25,8 %. Estos datos, según los autores, no reflejan tanto una mayor o menor afinidad ideológica con la tecnología como distintas formas de aproximación a su utilidad práctica.
Para el sociólogo Francisco Arcas, uno de los responsables del estudio, los resultados deben interpretarse con cautela. Arcas subraya que, aunque solo un 36,8 % de la población afirma interactuar conscientemente con la inteligencia artificial, esta tecnología está presente de forma “ubicua” en la vida cotidiana. En un país donde el 95 % de la población utiliza un smartphone, el número real de usuarios de IA sería probablemente mucho mayor, aunque buena parte de ellos no lo perciba como tal.
La “digitalización invisible” y el uso laboral sin control
El investigador de la UCAM en Ingeniería Informática y director de la Cátedra de Inteligencia Artificial, Federico Juárez, define este fenómeno como una “digitalización invisible”. Según explica, muchas personas utilizan asistentes virtuales, sistemas de recomendación o herramientas de procesamiento automático sin ser conscientes de que están interactuando con inteligencia artificial, lo que dificulta medir su penetración real y evaluar el grado de alfabetización digital de la sociedad.
En el ámbito laboral, el estudio refleja un uso todavía limitado y poco estructurado. Solo un 7,3 % de la población utiliza la IA exclusivamente para trabajar, un dato que, lejos de tranquilizar, plantea nuevos interrogantes. Juárez advierte de que numerosos empleados recurren a herramientas propias al margen de las políticas de sus empresas, una práctica conocida como “Shadow AI”. Esta utilización no regulada puede generar riesgos importantes en términos de gobernanza, seguridad de la información y control de datos, especialmente en sectores sensibles.
El informe sugiere que la incorporación de la inteligencia artificial al trabajo se está produciendo de forma desigual y sin un marco claro, lo que incrementa la sensación de incertidumbre tanto entre los trabajadores como entre las organizaciones. Esta situación, según los autores, exige una reflexión urgente sobre la necesidad de formación, regulación y acompañamiento institucional para evitar que la tecnología avance más rápido que la capacidad de la sociedad para gestionarla.
Miedos sociales, menores y desconfianza en el contenido digital
Si hay un aspecto en el que el estudio muestra una tendencia clara es en la percepción de los riesgos asociados a la inteligencia artificial. Los encuestados consideran que el principal peligro es que la IA pueda resultar perjudicial para los menores, con una valoración media de 4,2 sobre 5. A este temor le sigue la intromisión en la intimidad y el uso indebido de la información personal, que obtiene una puntuación de 4,0.
Otros riesgos percibidos son la manipulación de la voluntad de las personas, valorada con un 3,3, y la pérdida de empleo, con un 3,1. Las personas mayores de 65 años muestran una preocupación aún mayor por la seguridad de los menores, con una puntuación de 4,5, y por la privacidad, con un 4,2, mientras que los jóvenes tienden a relativizar ligeramente estos riesgos, aunque sin restarles importancia.
Especialmente alarmante resulta la percepción del uso malintencionado de la inteligencia artificial en contextos de acoso, extorsión o creación de imágenes manipuladas de menores con fines sexuales, un riesgo que alcanza una puntuación media de 4,4. También preocupan la desinformación sanitaria, con un 4,1, y la manipulación política o geopolítica, valorada con un 3,9.
Francisco Arcas interpreta estos resultados como el reflejo de una “alarma social crítica” y de una “desconfianza sistémica hacia la veracidad del contenido digital”. En un entorno saturado de información, la ciudadanía percibe la IA más como una amenaza potencial que como una herramienta de progreso, especialmente cuando se asocia a la manipulación y a la vulneración de derechos.
Para Federico Juárez, este enfoque revela un cambio de prioridades. A su juicio, la preocupación social se centra en protegerse frente al acoso, los deepfakes y los abusos, relegando a un segundo plano el potencial económico de la inteligencia artificial. “La próxima batalla de la IA no será tecnológica, será puramente humanista”, sostiene el director de la Cátedra de Inteligencia Artificial de la UCAM.
El estudio deja así una fotografía clara de la relación actual entre la sociedad murciana y la inteligencia artificial: una tecnología omnipresente pero poco reconocida, con un uso desigual y una aceptación condicionada por el miedo a sus consecuencias. Un escenario que plantea importantes retos en términos de educación digital, regulación y confianza social en una herramienta llamada a marcar el futuro inmediato.
¿Quieres contactar con el autor de esta noticia?
Si has visto algún error en esta noticia o tal vez puedes aportar alguna información extra, puedes contactar directamente con nuestra redacción mandando un email a news@lasnoticiasrm.es o escribiendo un mensaje por Whatsapp en el teléfono 641387053. Estaremos encantados de atenderte.
Esta y otras noticias puedes tenerlas al instante subscribiéndote a nuestro canal de Telegram
Puedes subscribirte a nuestro nuevo canal en Telegram, y disponer de todas las noticias importantes de la web en tiempo real.
Recuerda, pincha en t.me/lasnoticiasrm y dale a subscribir al canal en tu aplicación Telegram.
!!Te esperamos en LasNoticiasRM¡¡
Tabla de Contenidos
Datos del autor
- LasNoticiasRM
- Email: news@lasnoticiasrm.es
- Teléfono y Whatsapp: 641387053


