lunes, 14 de mayo de 2018

Machine Learning no es el futuro, ¡ya estamos en el!


Por Roberto Ramírez

¿Has escuchado mencionar el término machine learning últimamente sin saber a qué se refiere? ¿Te parece un término confuso e intimidante?

Cuando se habla de inteligencia artificial (IA) es normal sentirse confundido, ya que la tecnología IA es algo "relativamente nuevo" que ha generado un gran impacto. Sin embargo, no debe ser visto como algo intimidante, sino como una tecnología que puede aportar mucho a los negocios actuales.

Si quieres entender esta nueva tendencia y platicar de ella con tus allegados, ¡este artículo es lo que estabas esperando!

¿Qué es machine learning?
El machine learning (aprendizaje automático o aprendizaje de máquina), tuvo sus inicios en la década de los 60’s. Fue una subdisciplina de la IA, producto de las ciencias de la computación y las neurociencias, aunque en los 90’s se separa para convertirse en una disciplina por sí sola.

El principal objetivo del machine learning es abordar y resolver problemas prácticos de donde se aplique cualquiera de las disciplinas numéricas (razonamiento probabilístico, investigación basada en la estadística, recuperación de información, y continuó profundizando cada vez más en el reconocimiento de patrones).

Es un campo de las ciencias de la computación que, según Arthur Samuel, les da a las computadoras la habilidad de aprender sin ser explícitamente programadas.  

Si bien al principio sus funciones eran básicas y se limitaban a filtrar emails, hoy en día puede hacer cosas tan complejas como predicciones de tráfico en intersecciones muy transitadas, detectar cáncer, e incluso, definir la compatibilidad entre dos personas.

El objetivo principal de los “learners” es desarrollar la capacidad de generalizar y asociar. Esto traducido a máquinas o computadoras, significa que éstas deben lograr un desempeño preciso y exacto, tanto actividades que resulten familiares, como en aquellas que sea nuevas o imprevistas.

Para poder lograrlo, es necesario replicar las facultades cognitivas del ser humano, crear modelos que generalicen la información que se les presenta para realizar predicciones. Para esto, existe un ingrediente clave; los datos.

Existen tres grandes categorías en las que se dividen sus algoritmos.

1.      Supervised learning (Aprendizaje supervisado)
A través de datos insertados por humanos, la computadora es capaz de distinguir diversas cosas; por ejemplo, distinguir la imagen de auto, por la de un avión. Aunado a este ejemplo, lo ideal es que las computadoras aprendan de una multitud más, y a partir de eso tengan la capacidad de hacer los cálculos necesarios para que el humano no tenga que volver a ingresar información.  Esta categoría asegura efectividad y calidad.

Ejemplos: reconocimiento de voz, detección de spam, reconocimiento de escritura, reconocimiento facial, entre otros.

2.      Unsupervised learning (Aprendizaje no supervisado)
En esta categoría no se cuenta con información previa, sino que se le otorga una enorme cantidad de datos que cuentan con las características propias de un objeto (aspectos, partes, características que conforman un auto) para que de esta forma la computadora pueda terminar qué es.

Ejemplos: detectar morfología en oraciones, clasificar información, etc.

3.      Reinforcement learning (Aprendizaje por refuerzo)
Esta categoría tiene como base de aprendizaje el refuerzo. A través de múltiples pruebas y errores, la máquina es capaz de adquirir conocimiento. Otra característica de esta categoría es que las máquinas conocen los resultados desde el principio, sin embargo, no sabemos cuál es la mejor ruta o cuáles son las decisiones que se deben tomar para llegar al éxito. El algoritmo poco a poco va asociando los patrones de éxito, y de esta forma repetirlos una y otra vez, hasta llegar al punto de perfeccionarlos y convertir el proceso es uno infalible.

Ejemplos: navegación de un vehículo en automático, toma de decisiones, etc.

Perspectivas y aplicaciones
Por momentos estamos tan involucrados con la tecnología que no nos damos tiempo de detectar los diversos desarrollos o tendencias tecnológicas que utilizamos en el día a día. Para el individuo, la inteligencia artificial, especialmente el machine learning, es un facilitador clave de muchas de las tareas que realizamos en nuestra rutina diaria; servicios de traducción, asistente personal (Siri), predicción del clima, y en temas comerciales, específicamente en el sector retail, conocer de forma anticipada qué es lo que los usuarios quieren en base a sus actividades o hábitos de consumo.

Hablando en temas de negocios, las compañías actuales señalan a esta tendencia como una oportunidad invaluable para sus sistemas operativos, pues les permite cumplir con sus expectativas de mejora y crecimiento, así como automatizar sus procesos.  ¿Qué áreas pueden aplicar esta tecnología?

Debido a su naturaleza basada en el procesamiento y análisis de datos, la tecnología machine learning se puede aplicar en sectores donde se cuente con bases de datos lo suficientemente grandes. Algunos de sus usos más populares y desarrollados son:
  • ·        Clasificación de secuencias de ADN
  • ·        Predicciones económicas y fluctuaciones en el mercado bursátil
  • ·        Mapeos y modelados 3D
  • ·        Detección de fraudes
  • ·        Diagnósticos médicos
  • ·        Buscadores en Internet
  • ·        Sistemas de reconocimiento de voz
  • ·    Optimización e implementación de campañas digitales publicitarias (Google AdWords, Facebook e Instagram).

La cantidad de información que se maneja en la actualidad presenta tintes infinitos, lo que se convierte en un gran desafío para muchas empresas que buscan catapultar su negocio a costa de los datos recibidos. Esta tecnología permite que la información sea utilizada para mejorar los conocimientos de la empresa y, además, tener una mayor capacidad de respuesta ante diversos escenarios.

El machine learning no es una tecnología que haga magia, se requiere de talento humano para poder perfeccionarse, y así poder sacar el mejor provecho de ella. Como sucede con todas las tecnologías, las empresas deben conocer las características básicas de la tecnología, para poder saber usarla a su favor, de lo contrario, se hacen implementaciones que no están alineadas y enfocadas en solventar las necesidades reales de la empresa. Lo que es un hecho, es la IA y sus derivados, van a transformar por completo el mundo como lo conocemos. 

Fuente:

No hay comentarios:

Publicar un comentario

Por favor:
Usa un tono correcto y respetuoso con los demás.
Evita utilizar este espacio para dejar mensajes publicitarios o promocionar otras páginas.
Avansys se reserva el derecho de eliminar mensajes que no cumplan estas mínimas normas de comunicación y respeto.
¡Gracias por dejar tus comentarios!

Te recomendamos