Según Stuart Russell (científico computacional), la inteligencia artificial (IA) es definida como el estudio de agentes racionales que perciben su entorno y llevan a cabo acciones para cumplir un objetivo. Alan Turing, en su conocida Prueba de Turing, mencionaba que, para que un computador pudiera considerarse inteligente debería poseer las siguientes capacidades: procesamiento del lenguaje natural, representación del conocimiento (para almacenar lo que conoce o siente), razonamiento automático (inferencia) y aprendizaje automático (para adaptarse a nuevas circunstancias).
Sin discurrir en más detalles, podemos definir la IA en dos grandes rubros: la inteligencia artificial débil, con la que interactuamos diariamente: los algoritmos de Facebook, YouTube, Netflix, los sistemas de GPS e incluso en los videojuegos; en concreto, esta inteligencia solo es capaz de desarrollar un tipo de tarea, y bastante especifica. En segunda instancia tenemos a la inteligencia artificial fuerte, según proponen algunos investigadores, será posible cuando se logre imitar plenamente la inteligencia humana… pero ¿Qué tan cerca o qué tan lejos estamos de imitar la inteligencia humana?
Pensemos lo siguiente: hay sistemas inteligentes como Watson de IBM que pueden determinar nuestro estado de ánimo, e incluso la “IA débil” como los algoritmos de Facebook son capaces de determinar nuestros gustos. Zeynep Tufekci, tecno-socióloga, por ejemplo, habla de la magnitud de estas nuevas tecnologías, que se vuelven tan complejas y útiles (capaces de reconocer rostros, detectar fraudes bancarios, etc) pero que se vuelven menos transparentes; es decir, todo este complejo proceso se convierte en una caja negra. ¿De dónde proviene? Del aprendizaje automático, tal como lo mencionaba al inicio.
Hay quienes apelan a las 4 leyes de la robótica de Asimov para determinar que efectivamente una IA avanzada no podrá hacerle daño a la humanidad… pero ¿qué pasa cuando esta inteligencia no está basada en una lógica de una sola respuesta? Quizá tendríamos que entender el aprendizaje automático, que es más bien basado en hechos probabilísticos. ¿Cuál es el problema? No comprendemos con precisión lo que este programa en realidad aprendió (he aquí la caja negra).
¿Deberíamos evitar que estos agentes sigan aprendiendo? No, al final, ¿Cuál sería el objetivo de un agente truncado, que no es capaz de ofrecer más soluciones? Debemos entender que esta tecnología está aquí y ahora, y que su crecimiento es evidentemente exponencial. ¿Deberíamos dotarlos de ética? Aun para el ser humano es difícil definir concretamente que es la ética, lo que está bien para mí, puede estar mal para ti… Más bien, y a título personal, lo que debemos hacer es: primero, no delegarles responsabilidades humanas que involucren tantos valores (como Zeynep lo menciona); en segundo lugar, plantearnos ¿Qué debemos hacer para poder controlarla? Ergo, lo que me lleva al tercer punto, entenderla… entender la IA y lo que está pasando en esa “caja negra” es crucial para poder evitar que en el futuro se convierta en una amenaza. Entender la caja negra nos puede evitar problemas como que la IA determine en un futuro que la raza humana es innecesaria para sus propios objetivos.
Sin discurrir en más detalles, podemos definir la IA en dos grandes rubros: la inteligencia artificial débil, con la que interactuamos diariamente: los algoritmos de Facebook, YouTube, Netflix, los sistemas de GPS e incluso en los videojuegos; en concreto, esta inteligencia solo es capaz de desarrollar un tipo de tarea, y bastante especifica. En segunda instancia tenemos a la inteligencia artificial fuerte, según proponen algunos investigadores, será posible cuando se logre imitar plenamente la inteligencia humana… pero ¿Qué tan cerca o qué tan lejos estamos de imitar la inteligencia humana?
Pensemos lo siguiente: hay sistemas inteligentes como Watson de IBM que pueden determinar nuestro estado de ánimo, e incluso la “IA débil” como los algoritmos de Facebook son capaces de determinar nuestros gustos. Zeynep Tufekci, tecno-socióloga, por ejemplo, habla de la magnitud de estas nuevas tecnologías, que se vuelven tan complejas y útiles (capaces de reconocer rostros, detectar fraudes bancarios, etc) pero que se vuelven menos transparentes; es decir, todo este complejo proceso se convierte en una caja negra. ¿De dónde proviene? Del aprendizaje automático, tal como lo mencionaba al inicio.
Hay quienes apelan a las 4 leyes de la robótica de Asimov para determinar que efectivamente una IA avanzada no podrá hacerle daño a la humanidad… pero ¿qué pasa cuando esta inteligencia no está basada en una lógica de una sola respuesta? Quizá tendríamos que entender el aprendizaje automático, que es más bien basado en hechos probabilísticos. ¿Cuál es el problema? No comprendemos con precisión lo que este programa en realidad aprendió (he aquí la caja negra).
¿Deberíamos evitar que estos agentes sigan aprendiendo? No, al final, ¿Cuál sería el objetivo de un agente truncado, que no es capaz de ofrecer más soluciones? Debemos entender que esta tecnología está aquí y ahora, y que su crecimiento es evidentemente exponencial. ¿Deberíamos dotarlos de ética? Aun para el ser humano es difícil definir concretamente que es la ética, lo que está bien para mí, puede estar mal para ti… Más bien, y a título personal, lo que debemos hacer es: primero, no delegarles responsabilidades humanas que involucren tantos valores (como Zeynep lo menciona); en segundo lugar, plantearnos ¿Qué debemos hacer para poder controlarla? Ergo, lo que me lleva al tercer punto, entenderla… entender la IA y lo que está pasando en esa “caja negra” es crucial para poder evitar que en el futuro se convierta en una amenaza. Entender la caja negra nos puede evitar problemas como que la IA determine en un futuro que la raza humana es innecesaria para sus propios objetivos.
Trabajo redactado por:
Hno. Angel Alexis Viviano Alcantara
10 de Junio de 2017