En empresas como Crowe LLP, una firma de contabilidad pública y consultoría que brinda servicios de auditoría, impuestos y consultoría a entidades públicas y privadas, están muy pendientes de ciertos aspectos de nuestra sociedad, que podrían poner en riesgo a miles de empresas pequeñas y grandes. Uno de esos aspectos es la inteligencia artificial. Esta se ha colado en nuestras rutinas, en los procesos productivos, en la educación, en la salud y hasta en nuestras conversaciones diarias. Esta presencia constante genera tanto el entusiasmo de personas corrientes, como la desconfianza de creadores de contenido, artistas y muchas empresas. El brillo de sus posibilidades contrasta con las dudas que despierta su crecimiento acelerado.
Más allá del asombro inicial, crecen las preguntas incómodas: ¿qué papel tendrá la inteligencia artificial en las decisiones humanas?, ¿quién la controla?, ¿a quién beneficia realmente?, ¿qué se pierde en el camino? En este escenario de luces y sombras, conviene mirar con atención lo que está ocurriendo.
¿Una amenaza silenciosa para el trabajo?
Uno de los focos de preocupación más extendidos es su efecto sobre el empleo. La inteligencia artificial está transformando profesiones enteras, y no solo en sectores altamente técnicos. La automatización ya no se limita a tareas repetitivas: también empieza a tocar oficios creativos, administrativos y de atención al público.
El caso de Klarna es ilustrativo. La empresa sueca, especializada en servicios financieros, sorprendió al afirmar que la inteligencia artificial había llegado a realizar tareas equivalentes al trabajo de 800 personas. Sin embargo, meses después rectificó parcialmente esta visión: volvió a incorporar agentes humanos en su servicio de atención al cliente, reconociendo el valor insustituible de la empatía, el juicio y la comprensión contextual.
También en áreas como la manufactura, la restauración o la traducción se anticipan grandes cambios. Algunas predicciones indican que la sustitución de trabajadores por sistemas automáticos será progresiva, pero constante. Esta situación genera ansiedad y obliga a repensar la preparación profesional del presente y del futuro. No se trata solo de adquirir habilidades nuevas, sino de proteger el valor humano frente a una tecnología que no se detiene.
Los derechos de autor frente a la inteligencia artificial
El desarrollo de herramientas generativas ha reabierto un debate urgente sobre la propiedad intelectual. Programas capaces de crear imágenes, textos o música a partir de patrones aprendidos han sido denunciados por utilizar sin permiso obras protegidas por derechos de autor. Stable Diffusion, una de estas herramientas, ha sido objeto de varias demandas por ese motivo.
Lo mismo ocurre con algunas de las compañías más influyentes en este ámbito. OpenAI y Microsoft enfrentan procesos legales por haber entrenado modelos con material procedente de libros, artículos y otros contenidos sin la autorización correspondiente.
Este tipo de conflictos pone de manifiesto una realidad preocupante: el ritmo del desarrollo tecnológico supera al de las leyes. La legislación actual no estaba preparada para estos usos, y eso deja a muchos creadores en una posición de vulnerabilidad. Por eso, más que nunca, se hace necesario adaptar los marcos jurídicos para proteger el trabajo intelectual y asegurar una distribución justa de beneficios.
La ausencia de normas claras ha generado una especie de zona gris en la que los límites entre inspiración, copia y uso legítimo se vuelven difíciles de trazar. Algunos defensores de las herramientas generativas argumentan que los modelos no almacenan contenidos textuales o visuales tal como fueron tomados, sino que extraen patrones y estilos. Pero esto no elimina la controversia, sobre todo cuando el resultado final es tan similar a obras originales que puede confundirse con ellas. Sin una regulación efectiva, el desequilibrio entre grandes plataformas tecnológicas y creadores independientes seguirá creciendo.
Cuando el contenido deja de tener valor
El acceso masivo a herramientas automáticas ha propiciado una avalancha de textos, imágenes y vídeos generados por inteligencia artificial. Aunque esto puede verse como una democratización de la producción creativa, también tiene consecuencias negativas.
Una de ellas es el llamado “slop”: contenido de baja calidad que se produce de forma mecánica y se publica en grandes cantidades. Este fenómeno ha comenzado a saturar páginas web, redes sociales y hasta buscadores. La diferencia entre lo auténtico y lo artificial se vuelve borrosa, y encontrar información verificada resulta cada vez más difícil.
Este exceso de contenido no solo afecta a los lectores o usuarios. También impacta en la reputación de los medios, en la confianza social y en la forma en que se construye el conocimiento colectivo. Lo que está en juego no es solo la calidad de lo que consumimos, sino nuestra capacidad para distinguir lo importante en medio del ruido.
Además, muchas plataformas priorizan el volumen de publicaciones por encima de su valor informativo o ético, lo que crea un entorno en el que lo superficial y repetitivo gana visibilidad. Esto perjudica a creadores que apuestan por el contenido riguroso y dificulta la construcción de espacios donde el pensamiento crítico y el análisis profundo puedan desarrollarse. La inteligencia artificial, sin un uso responsable, puede contribuir a vaciar de sentido la información que circula a diario.
El precio ambiental de la inteligencia artificial
Detrás de cada modelo avanzado de inteligencia artificial hay un consumo enorme de recursos. Entrenar estos sistemas requiere potentes infraestructuras, electricidad, agua y materiales tecnológicos que dejan una huella ambiental considerable.
El caso de GPT-3 es una referencia devastadora: el entrenamiento de este modelo habría necesitado unos 700.000 litros de agua, una cantidad equivalente a la que se emplearía en la fabricación de más de 300 coches eléctricos. A eso hay que sumar el coste energético de los servidores que los alojan y la gestión de los residuos que se generan con los dispositivos utilizados.
Además, estos centros de datos suelen estar ubicados en zonas con escasez hídrica o problemas de acceso a energías limpias, lo que agrava el impacto medioambiental. La expansión de la IA sin una planificación ecológica clara podría generar efectos duraderos sobre ecosistemas y comunidades.
Aunque muchas veces se presenta a la inteligencia artificial como una solución moderna, también debería evaluarse desde una perspectiva ecológica. La sostenibilidad no puede quedar fuera de la conversación. Si el desarrollo de estas herramientas compromete los recursos del planeta, se vuelve urgente incorporar criterios medioambientales en su diseño y uso.
¿Qué ocurre cuando los algoritmos repiten nuestros errores?
Existe una idea extendida de que los sistemas de inteligencia artificial son objetivos, neutros y racionales. Pero la realidad es mucho más compleja. Todo sistema se alimenta de los datos con los que ha sido entrenado, y esos datos reflejan los sesgos, desigualdades y estereotipos de la sociedad.
Esto tiene consecuencias directas. En aplicaciones como el reconocimiento facial, la selección de personal o la predicción del comportamiento, se han detectado errores graves por falta de representación diversa en los conjuntos de entrenamiento. El problema no es solo técnico. Es estructural.
También hay casos documentados de algoritmos que han penalizado a ciertos grupos por motivos raciales, económicos o de género, debido a patrones presentes en los datos históricos. Si no se revisan críticamente estas fuentes, la IA puede no solo reproducir injusticias, sino agravarlas en su implementación masiva.
Por otro lado, solo el 22% de los profesionales que trabajan en inteligencia artificial en todo el mundo son mujeres. Esta desigualdad de acceso se traduce también en una menor diversidad de enfoques, experiencias y prioridades al momento de diseñar nuevas herramientas.
La inteligencia artificial no puede entenderse sin las personas que la crean. Por eso, fomentar la inclusión y la participación de perfiles diversos es una necesidad si se quiere evitar que los sistemas tecnológicos amplifiquen las injusticias ya existentes.
Una norma para un desarrollo más consciente
Consciente de los riesgos que plantea el uso sin regulación de estas tecnologías, la Unión Europea ha dado un paso importante al aprobar su Ley de Inteligencia Artificial. Esta normativa busca establecer límites claros, exigir transparencia y proteger los derechos fundamentales de los ciudadanos frente a los posibles abusos.
La ley establece distintos niveles de riesgo en función del tipo de sistema, su aplicación y sus implicaciones. También impone obligaciones sobre trazabilidad, supervisión humana y aplicabilidad de los algoritmos en contextos sensibles como la educación, la sanidad o el empleo.
Otra de sus disposiciones más relevantes es la prohibición de ciertos usos intrusivos, como la vigilancia biométrica masiva, salvo en situaciones excepcionales. Esto abre un precedente importante para frenar tecnologías que podrían vulnerar la intimidad o utilizarse con fines de control social.
Aunque no es perfecta, esta regulación representa un punto de partida relevante. Marca una diferencia respecto a enfoques más permisivos o desregulados, y pone sobre la mesa la necesidad de una gobernanza tecnológica que combine innovación con responsabilidad.
También obliga a una reflexión colectiva sobre el papel que queremos que desempeñe la inteligencia artificial en nuestras sociedades: si debe ser una herramienta al servicio del bienestar común o una tecnología que avanza sin rendir cuentas.
El debate que no podemos aplazar
La inteligencia artificial seguirá avanzando y tenemos que decidir cómo queremos convivir con ella. Ignorar los efectos colaterales, mirar solo los beneficios inmediatos o delegar en unos pocos el diseño del futuro digital puede resultar cómodo, pero también muy peligroso.
El debate sobre su uso no debe quedar reservado a expertos o tecnólogos. Es una conversación que afecta a los derechos, a las libertades, al medio ambiente y a la convivencia. Por eso debe abrirse a la ciudadanía, a los educadores, a los profesionales de todas las disciplinas, a los creadores y a quienes simplemente desean entender qué está cambiando y por qué.
Solo así podremos orientar este desarrollo hacia un modelo más justo, sostenible y humano.