Contexto

Actualmente, y gracias al desarrollo de la computación en la nube y el Big Data a comienzos del siglo XXI, las aplicaciones prácticas reales del Deep Learning forman parte de la vida cotidiana de empresas, administraciones públicas e incluso usuarios finales. Así, existen multitud de escenarios donde el ecosistema de tecnologías Big Data, Cloud Computing e Inteligencia Artificial pueden ser aplicados con éxito y continuamente surgen nuevos especialistas en ingeniería de datos, ciencia de datos, inteligencia artificial e inteligencia de negocio (business intelligence), como la mejora del sector sociosanitario, la gestión del transporte en última milla, la Industria conectada 4.0, la agricultura y ganadería o, más recientemente, la predicción y mitigación del Covid-19.  En este sentido, existen diferentes intentos para crear plataformas de captura, almacenamiento y análisis inteligente de datos que puedan dar una respuesta razonablemente única a las diferentes problemáticas que puedan surgir. No obstante, existen varios inconvenientes que es necesario considerar. Por un lado, el modelo de negocio y el modelo de datos derivado es muy diferente en función del vertical abordado. Las necesidades funcionales de un escenario healthcare puede ser muy diferente a un entorno de gestión de la última milla, pero también en términos no funcionales o técnicos, como el volumen de datos procesado por lotes o en tiempo real, así como la propia privacidad de datos y la securización de la información, entre otras cuestiones. Por otro lado, las metodologías de ingeniería software clásicas pueden no ser las más apropiadas para abordar este tipo de escenarios a medida para cada usuario, existiendo metodologías más apropiadas a la incertidumbre de la investigación y desarrollo de soluciones basadas en ciencia de datos, grandes datos e inteligencia artificial, como el Data Science Process.

Por otra parte, las discusiones sobre los riesgos que plantean los sistemas de inteligencia artificial van desde las preocupaciones actuales, como las violaciones de la privacidad o los efectos nocivos para la sociedad, hasta los debates sobre si las máquinas podrán escapar alguna vez del control humano. Sin embargo, no es posible predecir plenamente las consecuencias de estos avances tecnológicos. La necesidad de un enfoque preventivo de la inteligencia artificial pone de manifiesto la importancia de una gobernanza reflexiva. Aplicando nuestra inteligencia humana, tenemos la oportunidad, a través del control de la toma de decisiones, de dirigir el desarrollo de la inteligencia artificial de forma acorde con los valores y necesidades humanas.

foto-IA.png
foto-Europa.png

En este sentido, y como parte de su estrategia europea para la Inteligencia Artificial (IA), y como respuesta a las crecientes cuestiones éticas planteadas por esta tecnología, la Comisión Europea creó en 2018 un Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AIHLEG), que en 2019 presentó un marco global para lograr una Inteligencia Artificial Fiable, ofreciendo orientación ética a los profesionales de la IA. Este marco global implica, entre otras cuestiones, orientar las investigaciones a una artificial legítima, robusta y ética, para lo cual ésta ha de ser en primer lugar explicable.

Así, se hace necesario investigar nuevos marcos metodológicos y técnicos que permitan poner a disposición de las organizaciones sus datos de forma ágil y eficiente e independientemente del modelo de negocio de cada una de las mismas, así como ofrecer servicios de análisis de datos y descubrimiento del conocimiento basados en técnicas de inteligencia artificial explicable por diseño de cara a proporcionar modelos robustos y fiables.