Por Allan Rodríguez Coto – Estudiante de la carrera de Ingeniería Informática

“Predigo que debido a la capacidad de inteligencia artificial de automatizar tareas que en el pasado eran imposibles de automatizar, no solo tendremos una civilización más prospera, sino también la calidad de trabajo se incrementará significativamente y una mayor fracción de personas tendrán vocaciones y carreras relevantes con la actualidad” – Jeff Bezos

El siglo XXI se ha caracterizado por los rápidos avances tecnológicos y su adopción en las vidas cotidianas de las personas. Entre los más relevantes se encuentra la facilidad de acceso e intercambio de información, gracias a la difusión y accesibilidad del uso de computadoras y servicios como la navegación por internet. No obstante, para lograr este intercambio de información, se requieren redes computacionales, que permitan comunicar dispositivos electrónicos entre sí sin importar las distancias. Conforme se dan los avances tecnológicos en ámbitos de computación, también se incrementan las demandas por cantidad y tipos de información que se comparten a través de redes. Por tal motivo, se requieren constantes ajustes, cambios y mejoras a las redes ya establecidas, para que sean la solución óptima al flujo de demandas cambiantes.

Actualmente, las labores de mantenimiento, expansión y alteraciones a redes informáticas se realizan mediante acciones de usuarios, en otras palabras, requieren intervenciones humanas. Sin embargo, desde hace 30 años se han venido dando avances en protocolos para simplificar las acciones requeridas por los usuarios y reducir el número de intervenciones humanas necesarias. Con las tecnologías emergentes de machine learning e inteligencia artificial (AI), se ha llegado a un punto donde se pueden tener redes computacionales que sean autosostenibles y no requieran intervención humana del todo. En la actualidad, existen esfuerzos por integrar los conceptos de machine learning en los distintos protocolos de redes, tal y como lo muestran Ma et al. (2018), quienes presentaron un método de análisis automático de protocolos de seguridad por medio de algoritmos de machine learning. Whitney (2019) muestra cómo la Fuerza Aérea de los Estados Unidos se encuentra invirtiendo en la investigación de machine learning e inteligencia artificial, para crear sistemas y arquitecturas computacionales robustas y eficientes.

Sin embargo, el uso de la inteligencia artificial y el machine learning presenta una serie de obstáculos que se deben tomar en cuenta antes de ser puestos en funcionamiento. Uno de los principales aspectos por considerar a la hora de utilizar este tipo de sistemas inteligentes son los riesgos que se pueden dar cuando el algoritmo automático toma decisiones que no son las correctas, y las consecuencias se ven reflejadas en los sistemas donde operaba dicho algoritmo.

De igual forma, este tipo de tecnologías con capacidad de aprender requieren computadores con alto rendimiento, gran cantidad de memoria y variedad de tipos de memoria (Pritchard, 2020), lo que implica altos costos para su correcta implementación. Pero estos obstáculos no son imposibles de sobrepasar. Tingting Wu et al. (2020) definieron una serie de técnicas y métricas para poder tener un marco de referencia en el aprendizaje de sistemas de machine learning e inteligencia artificial, comprobando si estos operarían correctamente antes de ser implementados. En relación con el costo de utilizar estas tecnologías inteligentes, Pritchard (2020) ejemplifica que existen alternativas de optar por empresas que ofrecen servicios de estas tecnologías mediante la nube (cloud services), lo que representa un costo inferior al adquirir e implementar el equipo. Adicionalmente, el costo por unidad de almacenaje se abarata con el paso de los años, como lo podemos ejemplificar con el estudio de Klein (2017), donde en un periodo de dos años el precio por GB en discos duros tuvo una reducción del 26 %.

Por tal motivo, es perfectamente posible que en un futuro cercano se puedan tener redes computacionales que sean autónomas en un 100 %, mediante la utilización de sistemas de inteligencia artificial y machine learning. Claro está que, para llegar esta meta se requieren sistemas inteligentes sometidos a un tiempo de prueba riguroso para poder cumplir con las funciones establecidas. También se requerirá equipo especializado para poder obtener el máximo rendimiento de estos sistemas, los cuales pueden llegar a tener un costo accesible en los próximos años.

 

MOXIE es el Canal de ULACIT (www.ulacit.ac.cr), producido por y para los estudiantes universitarios, en alianza con el medio periodístico independiente Delfino.cr, con el propósito de brindarles un espacio para generar y difundir sus ideas.  Se llama Moxie - que en inglés urbano significa tener la capacidad de enfrentar las dificultades con inteligencia, audacia y valentía - en honor a nuestros alumnos, cuyo “moxie” los caracteriza.

Referencias bibliográficas:
  • Klein, A. (2017). Hard Drive Cost Per Gigabyte. https://www.backblaze.com/blog/hard-drive-cost-per-gigabyte/
  • Ma, Z., Liu, Y., Wang, Z., Ge, H., & Zhao, M. (2018). A machine learning-based scheme for the security analysis of authentication and key agreement protocols. Neural Computing & Applications, 32(22), 16819-16831. doi:10.1007/s00521-018-3929-8
  • Pritchard, S. (2020). Storage Decisions for Ai, Machine Learning and Big Data: Artificial intelligence and machine learning storage is not one-size-fits-all. Computer Weekly, 26–29.
  • Tingting Wu, Yunwei Dong, Zhiwei Dong, Aziz Singa, Xiong Chen, & Yu Zhang. (2020). Testing Artificial Intelligence System
  • Towards Safety and Robustness: State of the Art. IAENG International Journal of Computer Science, 47(3), 449–462.
  • Whitney, J. (2019). AI, machine learning driving embedded bus-and-board development. Military & Aerospace Electronics, 30(9), 24–30.