El algoritmo de aprendizaje que permite el éxito desbocado de las redes neuronales artificiales de Python no funciona en cerebros biológicos, pero los investigadores están encontrando alternativas que podrían hacerlo. Cada vez más se está aprendiendo más sobre cómo las redes de neuronas biológicas pueden aprender mediante el estudio de algoritmos en redes profundas artificiales.
En 2007, algunos de los principales pensadores detrás de las redes neuronales profundas organizaron una reunión "satélite" no oficial al margen de una prestigiosa conferencia anual sobre inteligencia artificial, que dicho se de paso, se desarrolla en varios lenguajes especializados, como Python. La conferencia había rechazado su solicitud de un taller oficial; aún faltaban unos años para que las redes neuronales profundas se hicieran cargo de la IA. El último orador de la reunión fue Geoffrey Hinton de la Universidad de Toronto, el psicólogo cognitivo y científico informático responsable de algunos de los mayores avances en redes profundas.
Por esa razón y muchas otras más no menos importantes, es que te recomendamos este curso de python profesional, el cual lo imparten de manera presencial o en linea, con instructores expertos en este lenguaje de programación.
En esa conferencia se enfatizó que es posible usar la inteligencia artificial desarrollada en Python para comprender el cerebro. Hoy en día, las redes profundas gobiernan la IA en parte debido a un algoritmo llamado backpropagation o backprop. El algoritmo permite que las redes profundas aprendan de los datos, dándoles la capacidad de clasificar imágenes, reconocer el habla, traducir idiomas, dar sentido a las condiciones de la carretera para los vehículos autónomos y realizar una serie de otras tareas.
Pero es muy poco probable que los cerebros reales se basen en el mismo algoritmo desarrollado en Python. No se trata solo de que los cerebros puedan o no generalizar y aprender mejor y más rápido que los sistemas de IA de última generación, dijo Yoshua Bengio, científico informático de la Universidad de Montreal, quien también es director científico del Instituto de Inteligencia Artificial de Quebec. De hecho, por una variedad de razones, la propagación hacia atrás no es compatible con la anatomía y fisiología del cerebro, particularmente en la corteza.
En este contexto, Geoffrey Hinton, psicólogo cognitivo e informático de la Universidad de Toronto, es responsable de algunos de los mayores avances en la tecnología de redes neuronales artificiales de Python, incluido el desarrollo de la retropropagación. Pues bien, Bengio y muchos otros inspirados por Hinton han estado pensando en mecanismos de aprendizaje más biológicamente plausibles que podrían al menos igualar el éxito de la retropropagación. Tres de ellos (alineación de retroalimentación, propagación de equilibrio y codificación predictiva) se han mostrado particularmente prometedores. Algunos investigadores también están incorporando las propiedades de ciertos tipos de neuronas corticales y procesos como la atención en sus modelos. Todos estos esfuerzos nos acercan a la comprensión de los algoritmos que pueden estar funcionando en el cerebro.
Sin embargo, los desarrolladores esperan que si se logra desbloquear algunos de los principios del funcionamiento del cerebro, podría ser útil para la IA. Con todo, hay que reconocer que aún queda un camino muy largo que recorrer para los programadores de inteligencia artificial para aumentar la similitud entre sus desarrollos y el cerebro humano. Y Python sin duda será usado para realizar tales ajustes el la IA.
Diseño Web Grupo Codesi