Categories: Empresas

5 peligros que la implementación de la inteligencia artificial puede suponer para las empresas

Según un informe de Ontsi, la inteligencia artificial por ahora es utilizada únicamente por el 11,8% de las empresas españolas de más de diez empleados.

Sin embargo, cada vez son más las organizaciones que deciden dar el paso. En 2022 este porcentaje fue 3,5 puntos superior al año anterior. La irrupción de esta nueva tecnología, entre otros muchos beneficios, permite a las empresas ofrecer mejores servicios adaptados al nuevo consumidor, mejorar su eficiencia en la toma de decisiones, aumentar su productividad y ahorrar en costes.

Sin embargo, de la misma forma que la inteligencia artificial proporciona muchos beneficios a las empresas, lo cierto es que también implica algunos riesgos y barreras a las cuales es fundamental tener en cuenta.

En este sentido, atSistemas, consultora tecnológica de servicios de transformación digital, ha recogido algunos de los peligros a los que se pueden enfrentar las empresas a la hora de implementar esta nueva tecnología:

Falta de conocimientos

Una de las principales barreras que tienen que superar las empresas para implementar soluciones basadas en inteligencia artificial es la falta de conocimiento y experiencia en la materia. Al ser un campo altamente especializado y debido a su elevado nivel de sofisticación, no resulta sencillo para las compañías adquirir el talento necesario para llevar a cabo proyectos exigentes.

De hecho, tal y como señala el último estudio de la Asociación Industrial para el Impulso de la Economía del Dato y de la IA (IndesIA), la falta de profesionales cualificados en las empresas españolas dejará sin cubrir más de 6.500 ofertas de empleos en datos e inteligencia artificial en 2023.

La confianza en sus decisiones

Los sistemas basados en inteligencia artificial se alimentan de datos que son usados para su aprendizaje, entrenando a los algoritmos para construir modelos que resuelven determinadas tareas. Si los datos de partida presentan sesgos, los sistemas pueden generar decisiones desequilibradas en términos raciales, de género, o presentar desigualdades y preferencias injustas.

Además, a medida que los algoritmos se vuelven más complejos, disminuye la transparencia y puede ser difícil o incluso imposible comprender cómo se toman las decisiones. Preservar la “explicabilidad” de los modelos es clave para mantener la confianza en las decisiones y permitir hacer un uso más responsable y seguro de los sistemas de IA.

Privacidad y seguridad

Aunque en el año 2021 la Comisión Europea ya presentó un borrador de un reglamento sobre el uso y desarrollo de la inteligencia artificial, está actualmente todavía pendiente de aprobación por parte del Parlamento y el Consejo europeos. No obstante, el uso de la IA sí tiene ya asociada la obligatoriedad de cumplir con las leyes de protección de datos confidenciales y sensibles tanto de clientes como empleados de la propia empresa.

Así, la creación y posterior mantenimiento de soluciones basadas en inteligencia artificial requiere recopilar una gran cantidad de datos que son usados para diseñar y evolucionar sus modelos, por lo que las empresas deben respetar que estas normativas y regulaciones de protección de datos se cumplan en sus proyectos de dos formas diferentes: por un lado, en los datos usados para la propia construcción y evolución de los modelos y, por otro lado, en los datos que usan los modelos cuando están en un entorno real productivo, ya que el sistema de IA funciona como un superusuario que tiene capacidad casi ilimitada de acceso a un volumen gigante de datos para su tratamiento y toma de decisiones.

Disponibilidad de los datos

La mayoría de los sistemas basados en IA dependen de enormes cantidades de datos para su construcción y mantenimiento. Si la disponibilidad de los datos es limitada, no se podrán encontrar los patrones y relaciones que permiten a los sistemas tomar decisiones de forma precisa.

Por tanto, las empresas dependen de la disponibilidad de dichos datos, que sean de buena calidad y se almacenen de forma correcta para que no sufran daño y sigan siendo útiles, pero también de que se sepa extraer información que sea útil de ellos. Para ello, es importante saber para qué se van a necesitar los datos, cómo se van a explotar y relacionar entre ellos, a fin de que la información que ofrezcan mejore la eficiencia y competitividad de las empresas.

Infraestructura necesaria

No solo la disponibilidad y calidad de los datos es crucial para el desempeño de los sistemas de IA, sino que también lo es la infraestructura necesaria para su almacenamiento y procesamiento. La construcción de sistemas inteligentes depende en gran medida de una infraestructura potente que sea capaz de procesar grandes volúmenes de datos y, gracias a los avances en los campos de big data y el hardware de computación dedicado, se consigue superar la barrera de acceso que hace unos años tenían las empresas.

La creciente adopción del cloud reduce el coste necesario tanto para el almacenamiento como el procesamiento, y existen cada vez más fabricantes que ofrecen productos y soluciones de sistemas IA preconstruidos basados en cloud. De esta forma, las compañías tienen acceso a sus beneficios y pueden hacer uso sin disponer de la infraestructura necesaria en sus propios servidores y sin preocuparse en exceso por la seguridad y vulnerabilidades de dicha infraestructura.

“La inteligencia artificial está revolucionando la forma en que nos relacionamos con el mundo. Su potencial para mejorar la calidad de vida de las personas es prácticamente ilimitado, realizando enormes avances en una gran diversidad de disciplinas, desde la medicina, la conducción autónoma o aplicaciones que involucran la interacción con el ser humano, como ChatGPT”, comenta Roberto Fuentes, Consejero Ejecutivo de atSistemas.

“Para las empresas, la IA ha supuesto un incremento considerable de su capacidad productiva y permite construir un futuro prometedor. Sin embargo, también plantea desafíos éticos y sociales que resaltan la necesidad de encontrar un equilibrio entre su evolución y el respeto de los valores y derechos humanos. Muchos de estos riesgos se pueden mitigar con un adecuado gobierno de los proyectos de IA, gestionando de forma ética y responsable el ciclo de vida de los datos”.

Alberto Payo

Recent Posts

Google paga 5.000 millones de dólares para resolver una demanda colectiva

Los usuarios denunciaban que la compañía los había rastreado incluso cuando usaban el modo privado…

11 meses ago

Las pymes valencianas pueden optar a ayudas de 5,5 millones de euros por proyectos de I+D

El Instituto Valenciano de Competitividad Empresarial financiará aquellas iniciativas que puedan solucionar incertidumbres científicas o…

11 meses ago

La guerra entre Israel y Gaza no acobarda a los inversores extranjeros de startups

Solo en el cuarto trimestre las empresas emergentes del país han levantado 1.500 millones de…

11 meses ago

Navarra ya cuenta con más de 80 startups

La región tiene 13 scaleups y destaca por sus empresas emergentes de salud y agrotech.

11 meses ago

Las startups valencianas progresaron adecuadamente en 2023

Valencia ha atraído en el primer semestre del año 30 millones de euros de inversión…

11 meses ago

El New York Times acusa a Open AI y Microsoft de infringir sus derechos de autor

El diario estadounidense demanda a las dos compañías tecnológicas por haber usado sus contenidos para…

11 meses ago