Glosario de Inteligencia Artificial
En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes»
Anonymization (Anonimato): Renovar u ocultar información de manera que la fuente no pueda identificarse de manera única.
Artificial intelligence (Inteligencia artificial): Programar computadoras para hacer cosas que, si fueran hechas por humanos, diría que requieren “inteligencia”. Es un término humano centrado y ambiguo: llamar a las computadoras ”artificialmente inteligentes ” es como llamar a la conducción de un automóvil “correr artificialmente”.
Association rules (reglas de asociación): Asociar dos o más artículos en el análisis de la cesta (basket analysis). Por ejemplo, “Las personas que compran pañales con usualmente también compran cerveza”.
Autoencoder network (Red autocodificadora): Un tipo de red neuronal que está entrenada para reconstruir su entrada en su salida. Debido a que hay menos unidades ocultas intermedias que ingresan, la red se ve obligada a aprender una representación comprimida corta en las unidades ocultas, que puede interpretarse como un proceso de abstracción.
Backpropagation (retropropagación): Un algoritmo de aprendizaje para redes neuronales artificiales utilizado para el aprendizaje supervisado, donde los pasos de conexión se actualizan iteractivamente para disminuir el error de aproximación en las unidades de salida.
Bag of words (Bolsa de palabras): Un método para la representación de documentos donde preseleccionamos un léxico de N palabras y representamos cada documento por una lista de longitud N donde el elemento i es 1 si la palabra i existe en el documento y es 0 de lo contrario.
Class (clase): Un conjunto de instancias que tienen la misma identidad. Por ejemplo, ‘A’ y A ‘pertenecen a la misma clase. En el aprendizaje automático, para cada clase aprendemos un discriminante del conjunto de sus ejemplos
Classification (Clasificación): Asignación de una instancia dada a una de un conjunto de clases.
Cloud computing (nube informatica): Es un paradigma reciente en informática donde la información y el computo de datos no están almacenados localmente pero se encuentran a la mano en algún sitio remoto de centro de datos. Existen varios centros de datos de este tipo, y las tareas de diferentes usuarios se distribuyen sobre ellos de una manera invisible para el usuario. Anteriormente era conocido como computación grid. (computacion en malla)
Clustering (agrupamiento): Agrupación de instancias similares en grupos. Este es un método de aprendizaje no supervisado porque las instancias que forman un grupo se encuentran en función de su similitud entre sí, en lugar de una tarea de clasificación en la que el supervisor asigna instancias a las clases etiquetándolas explícitamente.
Connectionism (Conexionismo): Un enfoque de red neuronal en la ciencia cognitiva donde la mente se modela como la operación de una red de muchas unidades de procesamiento simples que se ejecutan en paralelo. También se conoce como procesamiento distribuido paralelo.
Cyber-physical systems (Sistemas ciberfísicos): Elementos computacionales que interactúan directamente con el mundo físico. Algunos pueden ser móviles. Se puede organizar como una red para manejar la tarea de manera colaborativa. También conocido como sistemas embebidos.
Data analysis (Análisis de los datos): Métodos computacionales para extraer información de grandes cantidades de datos. La minería de datos utiliza el aprendizaje automático y se basa más en datos; OLAP (siglas en ingles de procesamiento analítico en línea) está más orientado al usuario.
Data mining (Minería de datos): Aprendizaje automático (machine learning) y métodos estadísticos para extraer información de una gran cantidad de datos. Por ejemplo, en el análisis de la cesta, al analizar un gran número de transacciones, encontramos reglas de asociación.
Data science (Ciencia de los datos): Un campo recientemente propuesto en ciencias de la computación e ingeniería compuesto por aprendizaje automático, computación de alto rendimiento y privacidad / seguridad de datos. Se propone que la ciencia de datos maneje de manera sistemática los problemas de “big data” que enfrentamos en muchos escenarios diferentes.
Data Warehouse (Almacén de datos): Un subconjunto de datos seleccionados, extraídos y organizados para una tarea específica de análisis de datos. Los datos originales pueden ser muy detallados y pueden estar en varias bases de datos operativas diferentes. El almacén los fusiona y los resume. El almacén es de solo lectura; se utiliza para obtener una visión general de alto nivel del proceso que subyace a los datos, ya sea a través de OLAP y herramientas de visualización, o mediante software de minería de datos.
Database (Base de datos): Software para almacenar y procesar información representada digitalmente de manera eficiente.
Decision tree (Árbol de decisión): Un modelo jerárquico compuesto por nodos de decisión y hojas (leaves). El árbol de decisiones funciona rápido y se puede convertir a un conjunto de reglas if-then (si x cosa-entonces), y como tal permite la extracción de conocimiento.
Deep learning (Aprendizaje profundo): Métodos que se utilizan para entrenar modelos con varios niveles de abstracción desde la entrada sin formato hasta la salida. Por ejemplo, en el reconocimiento visual, el nivel más bajo es una imagen compuesta de píxeles. En las capas a medida que avanzamos, un alumno profundo los combina para formar trazos y bordes de diferentes orientaciones, que luego se pueden combinar para detectar líneas, arcos, esquinas y uniones más largas, que a su vez se pueden combinar para formar rectángulos, círculos, y así. Las unidades de cada capa pueden pensarse en un conjunto de primitivas en un nivel diferente de abstracción.
Dimensionality reduction (Reducción de dimensionalidad): Métodos para disminuir el número de atributos de entrada. En una aplicación, algunas de las entradas pueden no ser informativas, y algunas pueden corresponder a diferentes formas de proporcionar la misma información. Reducir el número si las entradas también reduce la complejidad del modelo aprendido y facilita el seguimiento. Ver selección de características y extracción de características.
Discriminant (Discriminante): Una regla que define las condiciones para que una instancia sea un elemento de una clase y, como tal, las separa de las diferencias de otras clases.
Document categorization (Categorización de documentos): Clasificación de texto, documentos, generalmente basada en las palabras que aparecen en el texto (por ejemplo, usando la representación de bolsa de palabras). Por ejemplo, los documentos de noticias pueden clasificarse en política, artes, deportes, etc. Los correos electrónicos pueden clasificarse como spam versus no spam.
Face recogntion (Reconocimiento de la cara): Reconociendo las identidades de las personas a partir de sus imágenes faciales capturadas por una cámara.
Feature recognition (Reconocimiento de funciones): Reconocer la identidad de las personas a partir de las imágenes de sus caras capturadas por una cámara.
Feature extraction (Extracción de funciones): Como método para la reducción de la dimensionalidad, se combinaron varias entradas originales para definir nuevas características informativas.
Feature selection (Selección de características): Un método que descarta las características uniformes y mantiene solo aquellas que son informativas. Es otro método de reduccion de la dimensionalidad.
Generalization (Generalización): Que tan bien se desempeña un modelo entrenado en el conjunto de entrenamiento con los nuevos datos no vistos durante el entrenamiento. Esto está en el núcleo del aprendizaje automático. En un examen, una maestra hace preguntas que son diferentes de los ejercicios que ha resuelto mientras enseñaba el curso, y el rendimiento de un alumno se mide en función de su rendimiento en estas nuevas preguntas. Un estudiante que puede resolver solo las preguntas que el instructor ha resuelto en clase no es lo suficientemente bueno.
Generative model (Modelo generativo): Un modelo definido de tal manera que represente la forma en que creemos que se han generado los datos. Pensamos en causas ocultas que generan los datos y también en causas ocultas de nivel superior. Las carreteras resbaladizas pueden causar accidentes, y la lluvia puede haber causado que las carreteras estén resbaladizas.
Graphical model (Modelo grafico): Un modelo que representa dependencias entre conceptos probabilísticos. Cada nodo es un concepto con un grado de verdad diferente y la conexión entre nodos representa una dependencia condicional. Si sé que la lluvia hace que mi hierba se moje, defino un nodo para la lluvia y un nodo para la hierba húmeda, y pongo una conexión directa desde el nodo de lluvia al nodo para la hierba húmeda. La inferencia probabilística en tales redes puede implementarse como algoritmos de gráficos eficientes. Dichas redes son una representación visual y esto ayuda a entender. También conocida como red bayesiana: una regla de interferencia utilizada en tales redes en la regla de Bayes.
High-performance computing (Computación de alto rendimiento): Para manejar los problemas de big data que tenemos hoy en un tiempo razonable, necesitamos sistemas informáticos potentes, tanto para el almacenamiento como para el cálculo. El campo de la informática de alto rendimiento incluye el trabajo en estas direcciones. El enfoque es la computación en la nube.
If-then rules (Reglas si-entonces): Reglas de decisión escritas en la forma de ”SI antecedente ENTONCES consecuente ” El antecedente es una condición lógica y si es cierto para la entrada, la acción en el consecuente se lleva a cabo. En el aprendizaje supervisado, el consecuente corresponde a elegir un determinado resultado. Una base de reglas compuesta de muchas reglas si-entonces. Un modelo que se puede escribir como un conjunto de reglas if-then es fácil de entender y, por lo tanto, las bases de reglas permiten la extracción de conocimiento.
Ill-posed problem (Problema mal planteado): Un problema donde los datos no son suficientes para encontrar una solución única. Ajustar un modelo a los datos es un problema mal planteado, y necesitamos hacer suposiciones adicionales para obtener un modelo único; tales supuestos se denominan sesgo inductivo de un algoritmo de aprendizaje.
Knowledge extraction (Extraccion de conocimiento): En algunas aplicaciones, especialmente en minería de datos, después de entrenar un modelo, nos gustaría poder entender lo que el modelo ha aprendido; esto puede ser utilizado para validar el modelo por personas expertas en esa aplicación, y también ayuda a comprender el proceso que generó los datos. Algunos modelos son ”caja negra” porque no son fáciles de entender; Algunos modelos, por ejemplo, modelos lineales y árboles de decisión, son interpretables y permiten extraer conocimiento de un modelo entrenado.
Latent semantic analysis (Análisis semántico latente): Un método de aprendizaje donde el objetivo es encontrar un pequeño conjunto de variables ocultas (latentes) que representan las dependencias en una gran muestra de datos observados. Dichas variables ocultas pueden corresponder a conceptos abstractos (por ejemplo, semánticos). Por ejemplo, se puede decir que cada artículo de noticias incluye una serie de “temas”, y aunque la información de este tema no se proporciona explícitamente de manera supervisada en los datos, podemos aprenderlos de los datos de tal manera que cada tema esté definido por un conjunto particular de palabras y cada artículo de noticias se define por un conjunto particular de temas.
Model (Modelo): Una plantilla que formaliza la relación entre una entrada y una salida. Su estructura es fija pero también tiene parámetros modificables; los parámetros se ajustan para que el mismo modelo con diferentes parámetros pueda ser entrenado en diferentes datos para implementar diferentes relaciones en diferentes tareas.
Natural language processing (Procesamiento natural del lenguaje): Métodos informáticos utilizados para procesar el lenguaje humano, también llamado lingüística computacional.
Regression (regresión): Estimando un valor numérico para una instancia dada. Por ejemplo, estimar el precio de un automóvil usado dados los atributos del es un problema de regresión.
Reinforcement learning (aprendizaje reforzado): También se conoce como aprender con la crítica. El agente realiza una secuencia de acciones y recibe una recompensa / penalización solo al final, sin retroalimentación durante las acciones intermedias. Usando esta información limitada, el agente debe aprender a generar las acciones para maximizar la recompensa en ensayos posteriores. Por ejemplo, en ajedrez, hacemos una serie de movimientos, y al final, ganamos o perdemos el juego; Por lo tanto, debemos determinar cuáles fueron las acciones que nos llevaron a este resultado y atribuirles el correspondiente crédito.
Sample (muestreo): Un conjunto de datos observados. En estadística, hacemos una diferencia entre una población y una muestra. Digamos que queremos hacer un estudio sobre la obesidad en estudiantes de escuela. La población son todos los estudiantes de secundaria, y no podemos observar el peso de todos. En su lugar, elegimos un subconjunto aleatorio de, por ejemplo, 1000 estudiantes y observamos sus pesos. Esos 1000 valores son nuestra muestra. Analizamos la muestra para hacer interferencias sobre la población. Cualquier valor que calculamos a partir de la muestra es una estadística. Por ejemplo, el promedio de los pesos de los 1000 estudiantes en la muestra es una estadística y es un estimador de la media de la población.
Smart device (Dispositivo inteligente) :Un dispositivo que tiene sus datos detectados representados digitalmente y está haciendo algunos cálculos sobre estos datos. El dispositivo puede ser móvil y puede estar en línea, es decir, tiene la capacidad de intercambiar datos con otros dispositivos inteligentes, computadoras o la nube.
Speech recognition (Reconocimiento de voz): Reconocer oraciones expresadas a partir de información acústica capturada por un micrófono.
Supervised learning (Aprendizaje supervisado): Un tipo de aprendizaje automático en el que el modelo aprende a generar la salida correcta para cualquier entrada. El modelo está entrenado con datos preparados por un supervisor que puede proporcionar la salida deseada para una entrada dada. La clasificación y la regresión son ejemplos de aprendizaje supervisado.
Validation (Validación): Probar el rendimiento de generalización de un modelo entrenado probándolo en datos. invisible durante el entrenamiento. Por lo general, en el aprendizaje automático, dejamos algunos de nuestros datos como datos de validación y, después del entrenamiento, los probamos en estos datos que quedan. Esta precisión de validación es un estimador de qué tan bien se espera que funcione el modelo si se usa más adelante en la vida real.
Web Scraping (Raspado web): Software que navega automáticamente por la web y extrae información de las páginas web.
En esta entrada

Ada Lovelace
Augusta Ada King, Condesa de Lovelace, nacida Augusta Ada Byron, (Londres, 10 de diciembre de 1815 – Londres, 27 de noviembre de 1852), conocida habitualmente como Ada Lovelace, fue una matemática británica. Su padre fue el conocido poeta Lord Byron.

Ada Lovelace
Augusta Ada King, Condesa de Lovelace, nacida Augusta Ada Byron, (Londres, 10 de diciembre de 1815 – Londres, 27 de noviembre de 1852), conocida habitualmente como Ada Lovelace, fue una matemática británica. Su padre fue el conocido poeta Lord Byron.

El arte de programar ordenadores
Escrito en 1968 por Donal Knuth (EEUU, 1938), El arte de programar computadoras, es una de las más respetadas referencias en el campo de las ciencias de la computación. Sentó las bases y dio nombre al análisis de algoritmos, y

El arte de programar ordenadores
Escrito en 1968 por Donal Knuth (EEUU, 1938), El arte de programar computadoras, es una de las más respetadas referencias en el campo de las ciencias de la computación. Sentó las bases y dio nombre al análisis de algoritmos, y

Activismo Hacker
* Los hackers deberán ser juzgados por sus hackeos, no por falsos criterios como títulos, edad, raza, o posición. * En una computadora se puede crear arte y belleza. * Las computadoras pueden cambiar la vida para mejor. Bonsembiante, F.

Activismo Hacker
* Los hackers deberán ser juzgados por sus hackeos, no por falsos criterios como títulos, edad, raza, o posición. * En una computadora se puede crear arte y belleza. * Las computadoras pueden cambiar la vida para mejor. Bonsembiante, F.

Jaron Lanier
Jaron Lanier (Estados Unidos, 1960). Nació en Nueva York y vivió en Mesilla, Nuevo México. Hijo de inmigrantes judíos, curso estudios de postgrado a los 13 años en la Universidad estatal de Nuevo México, obtuvo la beca Fundación Nacional para

Jaron Lanier
Jaron Lanier (Estados Unidos, 1960). Nació en Nueva York y vivió en Mesilla, Nuevo México. Hijo de inmigrantes judíos, curso estudios de postgrado a los 13 años en la Universidad estatal de Nuevo México, obtuvo la beca Fundación Nacional para

TUPAC
La supercomputadora Tupac, es un clúster computacional dirigido a la resolución de modelos de simulación utilizando técnicas de computación de alto rendimiento. El clúster Tupac equivaldría a 12 000 computadoras hogareñas (tomando como base de equivalencia promedio un procesador Core i5 3470). Está ubicada en el Centro de Simulación Computacional

TUPAC
La supercomputadora Tupac, es un clúster computacional dirigido a la resolución de modelos de simulación utilizando técnicas de computación de alto rendimiento. El clúster Tupac equivaldría a 12 000 computadoras hogareñas (tomando como base de equivalencia promedio un procesador Core i5 3470). Está ubicada en el Centro de Simulación Computacional

Glosario Big Data
Glosario big data Big data: Volumen de información cuya gestión es muy difícil siguiendo los métodos tradicionales de tratamiento de información. Smart data: Aquella información válida y con sentido para extraer conclusiones que lleven a tomas de decisiones para cualquier tipo

Glosario Big Data
Glosario big data Big data: Volumen de información cuya gestión es muy difícil siguiendo los métodos tradicionales de tratamiento de información. Smart data: Aquella información válida y con sentido para extraer conclusiones que lleven a tomas de decisiones para cualquier tipo

C.C.C. Chaos Computer Club
El CCC fue fundado en Berlín en 12 de septiembre de 1981 en la sede del periódico die tageszeitung, por Wau Holland y otros influenciados por el movimiento de Kommune 1 o K1, anticipándose al rol que tendría la informática en la forma en que la gente

C.C.C. Chaos Computer Club
El CCC fue fundado en Berlín en 12 de septiembre de 1981 en la sede del periódico die tageszeitung, por Wau Holland y otros influenciados por el movimiento de Kommune 1 o K1, anticipándose al rol que tendría la informática en la forma en que la gente

WWW
En informática, la World Wide Web (WWW) o Red informática mundial es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos

WWW
En informática, la World Wide Web (WWW) o Red informática mundial es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos

Singularidad tecnológica
La singularidad tecnológica es la hipotética llegada de la Inteligencia Artificial (AI) a emular o superar las capacidades intelectuales de un ser humano. Esta expresión esta vinculada con la velocidad a la que avanza la tecnología y el aparente limitado control que tenemos sobre

Singularidad tecnológica
La singularidad tecnológica es la hipotética llegada de la Inteligencia Artificial (AI) a emular o superar las capacidades intelectuales de un ser humano. Esta expresión esta vinculada con la velocidad a la que avanza la tecnología y el aparente limitado control que tenemos sobre

Wikipedia
Wikipedia es una enciclopedia libre, políglota y editada colaborativamente. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro. Sus más de 37 millones de artículos en 284 idiomas (cantidad que incluye dialectos de muchos de esos idiomas)

Wikipedia
Wikipedia es una enciclopedia libre, políglota y editada colaborativamente. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro. Sus más de 37 millones de artículos en 284 idiomas (cantidad que incluye dialectos de muchos de esos idiomas)

Cyberfem
Julia Scher, (Estados Unidos, 1954). Artista contemporánea multimedial. Recibida en UCLA con un BA en Pintura/Escultura/Artes Gráfica y en la Universidad de Minnesota con una MFA Maestría en Bellas Artes. En los ´80 fundó una compañia “Safe and Secure Productions”, que se dedicaba a

Cyberfem
Julia Scher, (Estados Unidos, 1954). Artista contemporánea multimedial. Recibida en UCLA con un BA en Pintura/Escultura/Artes Gráfica y en la Universidad de Minnesota con una MFA Maestría en Bellas Artes. En los ´80 fundó una compañia “Safe and Secure Productions”, que se dedicaba a

Voder
El Voder, (de Voice Operating Demonstrator), desarrollado por la Bell Telephone Laboratory, fue el primer intento por sintetizar electrónicamente el habla humana descomponiéndolo en sus componentes acústicos. Fue inventado por Homer Dudley entre 1937 y 1938 y es un desarrollo de su

Voder
El Voder, (de Voice Operating Demonstrator), desarrollado por la Bell Telephone Laboratory, fue el primer intento por sintetizar electrónicamente el habla humana descomponiéndolo en sus componentes acústicos. Fue inventado por Homer Dudley entre 1937 y 1938 y es un desarrollo de su

Píxel
Un píxel, plural píxeles, (acrónimo del inglés picture element, “elemento de imagen”) es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de video o un gráfico. El color

Píxel
Un píxel, plural píxeles, (acrónimo del inglés picture element, “elemento de imagen”) es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de video o un gráfico. El color

Aprendizaje profundo
Aprendizaje profundo (deep learning) se llama a la utilización de algoritmos específicos aprendizaje automático (machine learning) que tienen como propósito y función intentar modelar datos partiendo de abstracciones complejas, utilizando arquitecturas compuestas de transformaciones no lineales múltiples. El aprendizaje profundo es parte de un conjunto aún

Aprendizaje profundo
Aprendizaje profundo (deep learning) se llama a la utilización de algoritmos específicos aprendizaje automático (machine learning) que tienen como propósito y función intentar modelar datos partiendo de abstracciones complejas, utilizando arquitecturas compuestas de transformaciones no lineales múltiples. El aprendizaje profundo es parte de un conjunto aún

Artistes et Robots
Artistes et Robots (Artistas y Robots), muestra en el Grand Palais, Galeries Nationales de Paría desarrolla entre los meses de abril y julio de 2018. Artistes et Robots ofrece un viaje interactivo a través del sueño de las “máquinas de artistas”

Artistes et Robots
Artistes et Robots (Artistas y Robots), muestra en el Grand Palais, Galeries Nationales de Paría desarrolla entre los meses de abril y julio de 2018. Artistes et Robots ofrece un viaje interactivo a través del sueño de las “máquinas de artistas”

The computer in society
Tapa de la Revista “Time” del 2 de abril de 1965, acompañada con el texto “The computer in society”, que ilustra un artículo en su interiror titulado “Technology: The Cybernated Generation”. En la ilustración se puede apreciar la incipiente influencia

The computer in society
Tapa de la Revista “Time” del 2 de abril de 1965, acompañada con el texto “The computer in society”, que ilustra un artículo en su interiror titulado “Technology: The Cybernated Generation”. En la ilustración se puede apreciar la incipiente influencia

Alan Turing
Alan Turing (Inglaterra 1912 – 1954) fue un matemático, lógico, científico de la computación, criptógrafo y filósofo. Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los

Alan Turing
Alan Turing (Inglaterra 1912 – 1954) fue un matemático, lógico, científico de la computación, criptógrafo y filósofo. Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los

NIMROD
El 5 de mayo de 1951, la computadora NIMROD, creada por Ferranti, fue presentada en el Festival del Museo de Ciencias Británico en Londres. Utilizando un panel de luces para su pantalla, fue diseñada exclusivamente para jugar el juego NIM; ésta

NIMROD
El 5 de mayo de 1951, la computadora NIMROD, creada por Ferranti, fue presentada en el Festival del Museo de Ciencias Británico en Londres. Utilizando un panel de luces para su pantalla, fue diseñada exclusivamente para jugar el juego NIM; ésta

allRGB
El objetivo de allRGB es simple: crear imágenes con un píxel de cada color RGB posible (16777216), sin que falte ni se repita ninguno. Para la profundidad de color de 24 bits por pixel, se habla de color verdadero debido a que

Eunoia
Lisa Park (Estados Unidos, 1977). Eunoia utiliza las ondas cerebrales, recopiladas a través un sensor EEG, para manipular los movimientos del agua. Euonia deriva de la palabra griega “ey” (bueno) + “nous” (mente), que significa “bello pensamiento”. El EEG es un sensor de

Eunoia
Lisa Park (Estados Unidos, 1977). Eunoia utiliza las ondas cerebrales, recopiladas a través un sensor EEG, para manipular los movimientos del agua. Euonia deriva de la palabra griega “ey” (bueno) + “nous” (mente), que significa “bello pensamiento”. El EEG es un sensor de

El próximo Rembrandt
The Next Rembrandt, obra realizada por algoritmos y análisis de datos para generar por medio de Inteligencia Artificial un nuevo cuadro del pintor holandés Rembrandt Harmenszoon van Rijn (Países Bajos 1609 – 1699). El proyecto fue una investigación multidisciplinaria de 168.263

El próximo Rembrandt
The Next Rembrandt, obra realizada por algoritmos y análisis de datos para generar por medio de Inteligencia Artificial un nuevo cuadro del pintor holandés Rembrandt Harmenszoon van Rijn (Países Bajos 1609 – 1699). El proyecto fue una investigación multidisciplinaria de 168.263

Ética hacker
La ética del hacker y el espíritu de la era de la información (titulo original: The hacker ethic and the spirit of the information age), libro escrito en 2001 por Pekka Himanen (Finlandia, 1973). Prologo: En el centro de nuestra

Ética hacker
La ética del hacker y el espíritu de la era de la información (titulo original: The hacker ethic and the spirit of the information age), libro escrito en 2001 por Pekka Himanen (Finlandia, 1973). Prologo: En el centro de nuestra

Memoria Electrónica
Publicidad de la empresa Engineering Research Associates Division, ERA, publicada en la Revista Scientific American en abril de 1953. “La memoria electrónica confiable” Ofrece una “memoria ERA Magnética de tambor de almacenamiento de sistemas automáticos de controles de procesos electrónicos

Memoria Electrónica
Publicidad de la empresa Engineering Research Associates Division, ERA, publicada en la Revista Scientific American en abril de 1953. “La memoria electrónica confiable” Ofrece una “memoria ERA Magnética de tambor de almacenamiento de sistemas automáticos de controles de procesos electrónicos

Algorithmic Art Assembly
Algorithmic Art Assembly es una conferencia de dos días y festival de música, que muestra una amplia gama de artistas que utilizan herramientas y procesos algorítmicos en sus obras. Canal de Youtube de Algorithmic Art Assembly Desde codificación en vivo

Algorithmic Art Assembly
Algorithmic Art Assembly es una conferencia de dos días y festival de música, que muestra una amplia gama de artistas que utilizan herramientas y procesos algorítmicos en sus obras. Canal de Youtube de Algorithmic Art Assembly Desde codificación en vivo

Conocimiento prostético
s. Información a la que una persona puede acceder mediante la tecnología cuando necesite, pero que no está guardada en su memoria. Este termino que se aplica muy convenientemente en esta época a nuestra relación con Internet (probablemente debido a la

Conocimiento prostético
s. Información a la que una persona puede acceder mediante la tecnología cuando necesite, pero que no está guardada en su memoria. Este termino que se aplica muy convenientemente en esta época a nuestra relación con Internet (probablemente debido a la

Mario Klingemann
Mario Klingemann es un artista alemán que trabaja en redes neuronales, datos, código y algoritmos. Se le considera un pionero en el uso del aprendizaje por computadora en las artes. Su objetivo es, mediante la programación y el entrenamiento de

Mario Klingemann
Mario Klingemann es un artista alemán que trabaja en redes neuronales, datos, código y algoritmos. Se le considera un pionero en el uso del aprendizaje por computadora en las artes. Su objetivo es, mediante la programación y el entrenamiento de

Historia de la computación
AutoCAD before AutoCAD. Chilton Computing Photographs El sitio Chilton Computing es un archivo de reporte y fotografías que documentan a los trabajadores, los computadores y los trabajos realizados por varios Departamentos de Computación en el “Atlas Computer and Rutherford Appleton

Historia de la computación
AutoCAD before AutoCAD. Chilton Computing Photographs El sitio Chilton Computing es un archivo de reporte y fotografías que documentan a los trabajadores, los computadores y los trabajos realizados por varios Departamentos de Computación en el “Atlas Computer and Rutherford Appleton

Conifer (ex Webrecorder)
Conifer (ex Webrecorder) es un servicio de archivo web gratuito que cualquiera puede usar para guardar páginas web. Hacer una captura de una página web es tan fácil como navegar normalmente por Internet. Webrecorder archiva automáticamente la página, junto con cualquier

Conifer (ex Webrecorder)
Conifer (ex Webrecorder) es un servicio de archivo web gratuito que cualquiera puede usar para guardar páginas web. Hacer una captura de una página web es tan fácil como navegar normalmente por Internet. Webrecorder archiva automáticamente la página, junto con cualquier

LoVid
LoVid es un dúo artístico interdisciplinario formado por Tali Hinkis (USA 1974) y Kyle (USA 1976) Lapidus. Sus trabajos incluyen instalaciones de vídeo, esculturas, impresiones digitales, patchwork, proyectos multimedia, performances y grabaciones de vídeo. En su trabajo se combinan

LoVid
LoVid es un dúo artístico interdisciplinario formado por Tali Hinkis (USA 1974) y Kyle (USA 1976) Lapidus. Sus trabajos incluyen instalaciones de vídeo, esculturas, impresiones digitales, patchwork, proyectos multimedia, performances y grabaciones de vídeo. En su trabajo se combinan

Performance de máquinas
Survival Research Laboratories (SRL) es un grupo artístico de performance de máquinas acreditado por ser pionero en el género de performance de máquinas a gran escala. Fundado en 1978 por Mark Pauline ha operado como una organización de técnicos creativos

Performance de máquinas
Survival Research Laboratories (SRL) es un grupo artístico de performance de máquinas acreditado por ser pionero en el género de performance de máquinas a gran escala. Fundado en 1978 por Mark Pauline ha operado como una organización de técnicos creativos

Roy Ascott
Roy Ascott (Reino Unido, 1934). Ha expuesto en la Bienal de Venecia, Trienal de Milán, Bienal do Mercosul Brasil, European Media Art Festival y Musée d’Art Moderne, París, entre otros. Roy Ascott es un artista reconocido por su trabajo con la

Roy Ascott
Roy Ascott (Reino Unido, 1934). Ha expuesto en la Bienal de Venecia, Trienal de Milán, Bienal do Mercosul Brasil, European Media Art Festival y Musée d’Art Moderne, París, entre otros. Roy Ascott es un artista reconocido por su trabajo con la

Young-Hae Chang Heavy Industries
Desde 1997, Young-hae Chang y Marc Voge trabajan juntos bajo el nombre de Young-hae Chang Heavy Industries (YHCHI). Adoptando el modelo de una corporación ficticia, producen obras de arte para Internet y en línea que siguen una fórmula estricta: películas

Young-Hae Chang Heavy Industries
Desde 1997, Young-hae Chang y Marc Voge trabajan juntos bajo el nombre de Young-hae Chang Heavy Industries (YHCHI). Adoptando el modelo de una corporación ficticia, producen obras de arte para Internet y en línea que siguen una fórmula estricta: películas

Eduardo Kac
Eduardo Kac (Brasil, 1962). En los años ochenta comenzó a desarrollar su carrera artística, cultivando un performance por semana. Más tarde en 1989 viajó a Chicago para estudiar en la Escuela del Instituto de Arte de Chicago, donde obtuvo una

Eduardo Kac
Eduardo Kac (Brasil, 1962). En los años ochenta comenzó a desarrollar su carrera artística, cultivando un performance por semana. Más tarde en 1989 viajó a Chicago para estudiar en la Escuela del Instituto de Arte de Chicago, donde obtuvo una

Heather Dewey-Hagborg
Heather Dewey-Hagborg (1982, EEUU) es una artista de la información y bio–hacker. Stranger Visions, de 2018, es una serie de retratos creados a partir de ADN recuperado de elementos deshechados, como cabello, cigarrillos y chicle, que realizó mientras vivía en

Heather Dewey-Hagborg
Heather Dewey-Hagborg (1982, EEUU) es una artista de la información y bio–hacker. Stranger Visions, de 2018, es una serie de retratos creados a partir de ADN recuperado de elementos deshechados, como cabello, cigarrillos y chicle, que realizó mientras vivía en

Acercándose al Infinito
Publicidad de IBM publicada en la Revista Modern Mechanix en septiembre de 1952. Hace referencia a la velocidad que van adquiriendo las máquinas de cálculo y la computadoras comparándolas con el concepto de Infinito, es decir que la electrónica no

Acercándose al Infinito
Publicidad de IBM publicada en la Revista Modern Mechanix en septiembre de 1952. Hace referencia a la velocidad que van adquiriendo las máquinas de cálculo y la computadoras comparándolas con el concepto de Infinito, es decir que la electrónica no