Glosario de Inteligencia Artificial
En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes».
Anonymization (Anonimato): Renovar u ocultar información de manera que la fuente no pueda identificarse de manera única.
Artificial intelligence (Inteligencia artificial): Programar computadoras para hacer cosas que, si fueran hechas por humanos, diría que requieren “inteligencia”. Es un término humano centrado y ambiguo: llamar a las computadoras ”artificialmente inteligentes ” es como llamar a la conducción de un automóvil “correr artificialmente”.
Association rules (reglas de asociación): Asociar dos o más artículos en el análisis de la cesta (basket analysis). Por ejemplo, “Las personas que compran pañales con usualmente también compran cerveza”.
Autoencoder network (Red autocodificadora): Un tipo de red neuronal que está entrenada para reconstruir su entrada en su salida. Debido a que hay menos unidades ocultas intermedias que ingresan, la red se ve obligada a aprender una representación comprimida corta en las unidades ocultas, que puede interpretarse como un proceso de abstracción.
Backpropagation (retropropagación): Un algoritmo de aprendizaje para redes neuronales artificiales utilizado para el aprendizaje supervisado, donde los pasos de conexión se actualizan iterativamente para disminuir el error de aproximación en las unidades de salida.
Bag of words (Bolsa de palabras): Un método para la representación de documentos donde preseleccionamos un léxico de N palabras y representamos cada documento por una lista de longitud N donde el elemento i es 1 si la palabra i existe en el documento y es 0 de lo contrario.
Class (clase): Un conjunto de instancias que tienen la misma identidad. Por ejemplo, ‘A’ y A’ pertenecen a la misma clase. En el aprendizaje automático, para cada clase aprendemos un discriminante del conjunto de sus ejemplos.
Classification (Clasificación): Asignación de una instancia dada a una de un conjunto de clases.
Cloud Computing (nube informática): Es un paradigma reciente en informática donde la información y el computo de datos no están almacenados localmente pero se encuentran a la mano en algún sitio remoto de centro de datos. Existen varios centros de datos de este tipo, y las tareas de diferentes usuarios se distribuyen sobre ellos de una manera invisible para el usuario. Anteriormente era conocido como Computation Grid (computación en malla)
Clustering (agrupamiento): Agrupación de instancias similares en grupos. Este es un método de aprendizaje no supervisado porque las instancias que forman un grupo se encuentran en función de su similitud entre sí, en lugar de una tarea de clasificación en la que el supervisor asigna instancias a las clases etiquetándolas explícitamente.
Connectionism (Conexionismo): Un enfoque de red neuronal en la ciencia cognitiva donde la mente se modela como la operación de una red de muchas unidades de procesamiento simples que se ejecutan en paralelo. También se conoce como procesamiento distribuido paralelo.
Cyber-physical Systems (Sistemas ciberfísicos): Elementos computacionales que interactúan directamente con el mundo físico. Algunos pueden ser móviles. Se puede organizar como una red para manejar la tarea de manera colaborativa. También conocido como sistemas embebidos.
Data Analysis (Análisis de los datos): Métodos computacionales para extraer información de grandes cantidades de datos. La minería de datos utiliza el aprendizaje automático y se basa más en datos; OLAP (siglas en ingles de procesamiento analítico en línea) está más orientado al usuario.
Data Mining (Minería de datos): Aprendizaje automático (Machine Learning) y métodos estadísticos para extraer información de una gran cantidad de datos. Por ejemplo, en el análisis de la cesta, al analizar un gran número de transacciones, encontramos reglas de asociación.
Data Science (Ciencia de los datos): Un campo recientemente propuesto en ciencias de la computación e ingeniería compuesto por aprendizaje automático, computación de alto rendimiento y privacidad / seguridad de datos. Se propone que la ciencia de datos maneje de manera sistemática los problemas de “big data” que enfrentamos en muchos escenarios diferentes.
Data Warehouse (Almacén de datos): Un subconjunto de datos seleccionados, extraídos y organizados para una tarea específica de análisis de datos. Los datos originales pueden ser muy detallados y pueden estar en varias bases de datos operativas diferentes. El almacén los fusiona y los resume. El almacén es de solo lectura; se utiliza para obtener una visión general de alto nivel del proceso que subyace a los datos, ya sea a través de OLAP y herramientas de visualización, o mediante software de minería de datos.
Database (Base de datos): Software para almacenar y procesar información representada digitalmente de manera eficiente.
Decision tree (Árbol de decisión): Un modelo jerárquico compuesto por nodos de decisión y hojas (leaves). El árbol de decisiones funciona rápido y se puede convertir a un conjunto de reglas if-then (si x cosa-entonces), y como tal permite la extracción de conocimiento.
Deep Learning (Aprendizaje profundo): Métodos que se utilizan para entrenar modelos con varios niveles de abstracción desde la entrada sin formato hasta la salida. Por ejemplo, en el reconocimiento visual, el nivel más bajo es una imagen compuesta de píxeles. En las capas a medida que avanzamos, un alumno profundo los combina para formar trazos y bordes de diferentes orientaciones, que luego se pueden combinar para detectar líneas, arcos, esquinas y uniones más largas, que a su vez se pueden combinar para formar rectángulos, círculos, y así. Las unidades de cada capa pueden pensarse en un conjunto de primitivas en un nivel diferente de abstracción.
Dimensionality reduction (Reducción de dimensionalidad): Métodos para disminuir el número de atributos de entrada. En una aplicación, algunas de las entradas pueden no ser informativas, y algunas pueden corresponder a diferentes formas de proporcionar la misma información. Reducir el número si las entradas también reduce la complejidad del modelo aprendido y facilita el seguimiento. Ver selección de características y extracción de características.
Discriminant (Discriminante): Una regla que define las condiciones para que una instancia sea un elemento de una clase y, como tal, las separa de las diferencias de otras clases.
Document categorization (Categorización de documentos): Clasificación de texto, documentos, generalmente basada en las palabras que aparecen en el texto (por ejemplo, usando la representación de bolsa de palabras). Por ejemplo, los documentos de noticias pueden clasificarse en política, artes, deportes, etc. Los correos electrónicos pueden clasificarse como spam versus no spam.
Face recognition (Reconocimiento de la cara): Reconociendo las identidades de las personas a partir de sus imágenes faciales capturadas por una cámara.
Feature recognition (Reconocimiento de funciones): Reconocer la identidad de las personas a partir de las imágenes de sus caras capturadas por una cámara.
Feature extraction (Extracción de funciones): Como método para la reducción de la dimensionalidad, se combinaron varias entradas originales para definir nuevas características informativas.
Feature selection (Selección de características): Un método que descarta las características uniformes y mantiene solo aquellas que son informativas. Es otro método de reduccion de la dimensionalidad.
Generalization (Generalización): Que tan bien se desempeña un modelo entrenado en el conjunto de entrenamiento con los nuevos datos no vistos durante el entrenamiento. Esto está en el núcleo del aprendizaje automático. En un examen, una maestra hace preguntas que son diferentes de los ejercicios que ha resuelto mientras enseñaba el curso, y el rendimiento de un alumno se mide en función de su rendimiento en estas nuevas preguntas. Un estudiante que puede resolver solo las preguntas que el instructor ha resuelto en clase no es lo suficientemente bueno.
Generative model (Modelo generativo): Un modelo definido de tal manera que represente la forma en que creemos que se han generado los datos. Pensamos en causas ocultas que generan los datos y también en causas ocultas de nivel superior. Las carreteras resbaladizas pueden causar accidentes, y la lluvia puede haber causado que las carreteras estén resbaladizas.
Graphical model (Modelo grafico): Un modelo que representa dependencias entre conceptos probabilísticos. Cada nodo es un concepto con un grado de verdad diferente y la conexión entre nodos representa una dependencia condicional. Si sé que la lluvia hace que mi hierba se moje, defino un nodo para la lluvia y un nodo para la hierba húmeda, y pongo una conexión directa desde el nodo de lluvia al nodo para la hierba húmeda. La inferencia probabilística en tales redes puede implementarse como algoritmos de gráficos eficientes. Dichas redes son una representación visual y esto ayuda a entender. También conocida como red bayesiana: una regla de interferencia utilizada en tales redes en la regla de Bayes.
High-performance computing (Computación de alto rendimiento): Para manejar los problemas de big data que tenemos hoy en un tiempo razonable, necesitamos sistemas informáticos potentes, tanto para el almacenamiento como para el cálculo. El campo de la informática de alto rendimiento incluye el trabajo en estas direcciones. El enfoque es la computación en la nube.
If-then rules (Reglas si-entonces): Reglas de decisión escritas en la forma de ”SI antecedente ENTONCES consecuente ” El antecedente es una condición lógica y si es cierto para la entrada, la acción en el consecuente se lleva a cabo. En el aprendizaje supervisado, el consecuente corresponde a elegir un determinado resultado. Una base de reglas compuesta de muchas reglas si-entonces. Un modelo que se puede escribir como un conjunto de reglas if-then es fácil de entender y, por lo tanto, las bases de reglas permiten la extracción de conocimiento.
Ill-posed problem (Problema mal planteado): Un problema donde los datos no son suficientes para encontrar una solución única. Ajustar un modelo a los datos es un problema mal planteado, y necesitamos hacer suposiciones adicionales para obtener un modelo único; tales supuestos se denominan sesgo inductivo de un algoritmo de aprendizaje.
Knowledge extraction (Extracción de conocimiento): En algunas aplicaciones, especialmente en minería de datos, después de entrenar un modelo, nos gustaría poder entender lo que el modelo ha aprendido; esto puede ser utilizado para validar el modelo por personas expertas en esa aplicación, y también ayuda a comprender el proceso que generó los datos. Algunos modelos son ”caja negra” porque no son fáciles de entender; Algunos modelos, por ejemplo, modelos lineales y árboles de decisión, son interpretables y permiten extraer conocimiento de un modelo entrenado.
Latent semantic analysis (Análisis semántico latente): Un método de aprendizaje donde el objetivo es encontrar un pequeño conjunto de variables ocultas (latentes) que representan las dependencias en una gran muestra de datos observados. Dichas variables ocultas pueden corresponder a conceptos abstractos (por ejemplo, semánticos). Por ejemplo, se puede decir que cada artículo de noticias incluye una serie de “temas”, y aunque la información de este tema no se proporciona explícitamente de manera supervisada en los datos, podemos aprenderlos de los datos de tal manera que cada tema esté definido por un conjunto particular de palabras y cada artículo de noticias se define por un conjunto particular de temas.
Model (Modelo): Una plantilla que formaliza la relación entre una entrada y una salida. Su estructura es fija pero también tiene parámetros modificables; los parámetros se ajustan para que el mismo modelo con diferentes parámetros pueda ser entrenado en diferentes datos para implementar diferentes relaciones en diferentes tareas.
Natural language processing (Procesamiento natural del lenguaje): Métodos informáticos utilizados para procesar el lenguaje humano, también llamado lingüística computacional.
Regression (regresión): Estimando un valor numérico para una instancia dada. Por ejemplo, estimar el precio de un automóvil usado dados los atributos del es un problema de regresión.
Reinforcement learning (aprendizaje reforzado): También se conoce como aprender con la crítica. El agente realiza una secuencia de acciones y recibe una recompensa / penalización solo al final, sin retroalimentación durante las acciones intermedias. Usando esta información limitada, el agente debe aprender a generar las acciones para maximizar la recompensa en ensayos posteriores. Por ejemplo, en ajedrez, hacemos una serie de movimientos, y al final, ganamos o perdemos el juego; Por lo tanto, debemos determinar cuáles fueron las acciones que nos llevaron a este resultado y atribuirles el correspondiente crédito.
Sample (muestreo): Un conjunto de datos observados. En estadística, hacemos una diferencia entre una población y una muestra. Digamos que queremos hacer un estudio sobre la obesidad en estudiantes de escuela. La población son todos los estudiantes de secundaria, y no podemos observar el peso de todos. En su lugar, elegimos un subconjunto aleatorio de, por ejemplo, 1000 estudiantes y observamos sus pesos. Esos 1000 valores son nuestra muestra. Analizamos la muestra para hacer interferencias sobre la población. Cualquier valor que calculamos a partir de la muestra es una estadística. Por ejemplo, el promedio de los pesos de los 1000 estudiantes en la muestra es una estadística y es un estimador de la media de la población.
Smart device (Dispositivo inteligente) :Un dispositivo que tiene sus datos detectados representados digitalmente y está haciendo algunos cálculos sobre estos datos. El dispositivo puede ser móvil y puede estar en línea, es decir, tiene la capacidad de intercambiar datos con otros dispositivos inteligentes, computadoras o la nube.
Speech recognition (Reconocimiento de voz): Reconocer oraciones expresadas a partir de información acústica capturada por un micrófono.
Supervised learning (Aprendizaje supervisado): Un tipo de aprendizaje automático en el que el modelo aprende a generar la salida correcta para cualquier entrada. El modelo está entrenado con datos preparados por un supervisor que puede proporcionar la salida deseada para una entrada dada. La clasificación y la regresión son ejemplos de aprendizaje supervisado.
Validation (Validación): Probar el rendimiento de generalización de un modelo entrenado probándolo en datos. invisible durante el entrenamiento. Por lo general, en el aprendizaje automático, dejamos algunos de nuestros datos como datos de validación y, después del entrenamiento, los probamos en estos datos que quedan. Esta precisión de validación es un estimador de qué tan bien se espera que funcione el modelo si se usa más adelante en la vida real.
Web Scraping (Raspado web): Software que navega automáticamente por la web y extrae información de las páginas web.
En esta entrada
TUPAC
La supercomputadora Tupac, es un clúster computacional dirigido a la resolución de modelos de simulación utilizando técnicas de computación de alto rendimiento. El clúster Tupac equivaldría a 12 000 computadoras hogareñas (tomando como base de equivalencia promedio un procesador Core i5 3470). Está ubicada en el Centro de Simulación Computacional
TUPAC
La supercomputadora Tupac, es un clúster computacional dirigido a la resolución de modelos de simulación utilizando técnicas de computación de alto rendimiento. El clúster Tupac equivaldría a 12 000 computadoras hogareñas (tomando como base de equivalencia promedio un procesador Core i5 3470). Está ubicada en el Centro de Simulación Computacional
Esto no es una pipa
Ceci n’est pas une pipe (esto no es una pipa) cuadro pintado por René Magritte en 1928 como parte de la serie “La traición de las imágenes”. El filósofo francés Michel Foucault habla del cuadro y su paradoja en su libro
Esto no es una pipa
Ceci n’est pas une pipe (esto no es una pipa) cuadro pintado por René Magritte en 1928 como parte de la serie “La traición de las imágenes”. El filósofo francés Michel Foucault habla del cuadro y su paradoja en su libro
George Boole
George Boole, (Gran Bretaña 1815 – 1864), fue un matemático y lógico británico. Como inventor del álgebra de Boole, que marca los fundamentos de la aritmética computacional moderna, Boole es considerado como uno de los fundadores del campo de las
George Boole
George Boole, (Gran Bretaña 1815 – 1864), fue un matemático y lógico británico. Como inventor del álgebra de Boole, que marca los fundamentos de la aritmética computacional moderna, Boole es considerado como uno de los fundadores del campo de las
Tipo Movible
Tipo movible es una obra multimedia encargada para el vestíbulo de la planta baja del periódico New York Times en Nueva York. El trabajo es una colaboración de los artistas neoyorquinos Ben Rubin y Mark Hansen. La obra consta de 560
Tipo Movible
Tipo movible es una obra multimedia encargada para el vestíbulo de la planta baja del periódico New York Times en Nueva York. El trabajo es una colaboración de los artistas neoyorquinos Ben Rubin y Mark Hansen. La obra consta de 560
Mario Klingemann
Mario Klingemann es un artista alemán que trabaja en redes neuronales, datos, código y algoritmos. Se le considera un pionero en el uso del aprendizaje por computadora en las artes. Su objetivo es, mediante la programación y el entrenamiento de
Mario Klingemann
Mario Klingemann es un artista alemán que trabaja en redes neuronales, datos, código y algoritmos. Se le considera un pionero en el uso del aprendizaje por computadora en las artes. Su objetivo es, mediante la programación y el entrenamiento de
Conifer (ex Webrecorder)
Conifer (ex Webrecorder) es un servicio de archivo web gratuito que cualquiera puede usar para guardar páginas web. Hacer una captura de una página web es tan fácil como navegar normalmente por Internet. Webrecorder archiva automáticamente la página, junto con cualquier
Conifer (ex Webrecorder)
Conifer (ex Webrecorder) es un servicio de archivo web gratuito que cualquiera puede usar para guardar páginas web. Hacer una captura de una página web es tan fácil como navegar normalmente por Internet. Webrecorder archiva automáticamente la página, junto con cualquier
Sofia Crespo
Sofía Crespo es artista de medios y de net-art. Vive y trabaja en Berlín, Alemania. Su trabajo se basa en desarrollar proyectos con inteligencia artificial, reconocimiento de imágenes computarizadas y redes neuronales. Por ejemplo “Trauma Doll”, una muñeca basada en
Sofia Crespo
Sofía Crespo es artista de medios y de net-art. Vive y trabaja en Berlín, Alemania. Su trabajo se basa en desarrollar proyectos con inteligencia artificial, reconocimiento de imágenes computarizadas y redes neuronales. Por ejemplo “Trauma Doll”, una muñeca basada en
Píxel
Un píxel, plural píxeles, (acrónimo del inglés picture element, “elemento de imagen”) es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de video o un gráfico. El color
Píxel
Un píxel, plural píxeles, (acrónimo del inglés picture element, “elemento de imagen”) es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de video o un gráfico. El color
Jaron Lanier
Jaron Lanier (Estados Unidos, 1960). Nació en Nueva York y vivió en Mesilla, Nuevo México. Hijo de inmigrantes judíos, curso estudios de postgrado a los 13 años en la Universidad estatal de Nuevo México, obtuvo la beca Fundación Nacional para
Jaron Lanier
Jaron Lanier (Estados Unidos, 1960). Nació en Nueva York y vivió en Mesilla, Nuevo México. Hijo de inmigrantes judíos, curso estudios de postgrado a los 13 años en la Universidad estatal de Nuevo México, obtuvo la beca Fundación Nacional para
Algorithmic Art Assembly
Algorithmic Art Assembly es una conferencia de dos días y festival de música, que muestra una amplia gama de artistas que utilizan herramientas y procesos algorítmicos en sus obras. Canal de Youtube de Algorithmic Art Assembly Desde codificación en vivo
Algorithmic Art Assembly
Algorithmic Art Assembly es una conferencia de dos días y festival de música, que muestra una amplia gama de artistas que utilizan herramientas y procesos algorítmicos en sus obras. Canal de Youtube de Algorithmic Art Assembly Desde codificación en vivo
Seymour Papert creador del Logo
Seymour Papert nació en 1928 en Sudáfrica en donde participó activamente en el movimiento anti-apartheid. Pionero de la inteligencia artificial. En 1968 crea el lenguaje de programación Logo (conocido como el lenguaje de la tortuga); una potente herramienta para la
Seymour Papert creador del Logo
Seymour Papert nació en 1928 en Sudáfrica en donde participó activamente en el movimiento anti-apartheid. Pionero de la inteligencia artificial. En 1968 crea el lenguaje de programación Logo (conocido como el lenguaje de la tortuga); una potente herramienta para la
Trevor Paglen
Trevor Paglen, (Estados Unidos, 1974). Es artista, geógrafo y escritor. Tiene una maestría en Bellas Artes por la Escuela del Instituto de Arte de Chicago y un doctorado en geografía en la Universidad de California en Berkeley, donde actualmente trabaja
Trevor Paglen
Trevor Paglen, (Estados Unidos, 1974). Es artista, geógrafo y escritor. Tiene una maestría en Bellas Artes por la Escuela del Instituto de Arte de Chicago y un doctorado en geografía en la Universidad de California en Berkeley, donde actualmente trabaja
Wikipedia
Wikipedia es una enciclopedia libre, políglota y editada colaborativamente. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro. Sus más de 37 millones de artículos en 284 idiomas (cantidad que incluye dialectos de muchos de esos idiomas)
Wikipedia
Wikipedia es una enciclopedia libre, políglota y editada colaborativamente. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro. Sus más de 37 millones de artículos en 284 idiomas (cantidad que incluye dialectos de muchos de esos idiomas)
Historia de la computación
AutoCAD before AutoCAD. Chilton Computing Photographs El sitio Chilton Computing es un archivo de reporte y fotografías que documentan a los trabajadores, los computadores y los trabajos realizados por varios Departamentos de Computación en el “Atlas Computer and Rutherford Appleton
Historia de la computación
AutoCAD before AutoCAD. Chilton Computing Photographs El sitio Chilton Computing es un archivo de reporte y fotografías que documentan a los trabajadores, los computadores y los trabajos realizados por varios Departamentos de Computación en el “Atlas Computer and Rutherford Appleton
Vigilar y Castigar
Un remedio para la delincuencia en los parques. Artículo publicado en la Revista Science & Mechanics en enero de 1965. Propone la instalación de Circuitos Cerrado de TV (CCTV) en el espacio púbico como sistema de vigilancia y la utilización
Vigilar y Castigar
Un remedio para la delincuencia en los parques. Artículo publicado en la Revista Science & Mechanics en enero de 1965. Propone la instalación de Circuitos Cerrado de TV (CCTV) en el espacio púbico como sistema de vigilancia y la utilización
Glosario Big Data
Glosario big data Big data: Volumen de información cuya gestión es muy difícil siguiendo los métodos tradicionales de tratamiento de información. Smart data: Aquella información válida y con sentido para extraer conclusiones que lleven a tomas de decisiones para cualquier tipo
Glosario Big Data
Glosario big data Big data: Volumen de información cuya gestión es muy difícil siguiendo los métodos tradicionales de tratamiento de información. Smart data: Aquella información válida y con sentido para extraer conclusiones que lleven a tomas de decisiones para cualquier tipo
Nonny de la Peña
Nonny de la Peña es periodista, directora de documentales y emprendedora norteamericana de ascendencia mexicana. Es una impulsora del periodismo inmersivo y la experimentación en entornos virtuales, se interesó en el concepto de“ubicuidad dual”, la sensación de sentirnos en dos espacios
Nonny de la Peña
Nonny de la Peña es periodista, directora de documentales y emprendedora norteamericana de ascendencia mexicana. Es una impulsora del periodismo inmersivo y la experimentación en entornos virtuales, se interesó en el concepto de“ubicuidad dual”, la sensación de sentirnos en dos espacios
Alan Turing
Alan Turing (Inglaterra 1912 – 1954) fue un matemático, lógico, científico de la computación, criptógrafo y filósofo. Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los
Alan Turing
Alan Turing (Inglaterra 1912 – 1954) fue un matemático, lógico, científico de la computación, criptógrafo y filósofo. Es considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna. Proporcionó una influyente formalización de los
Zach Blas
Zach Blas (EEUU, 1981). Artista y escritor cuyo trabajo involucra tecnología, cultura queer, y política. Actualmente, es profesor en el Departamento de Culturas Visuales de Goldsmiths, Universidad de Londres. Blas ha exhibido y dado conferencias a nivel internacional en el
Zach Blas
Zach Blas (EEUU, 1981). Artista y escritor cuyo trabajo involucra tecnología, cultura queer, y política. Actualmente, es profesor en el Departamento de Culturas Visuales de Goldsmiths, Universidad de Londres. Blas ha exhibido y dado conferencias a nivel internacional en el
David Link
David Link (Alemania, 1971), es Director del Experimental Technologies in the Art Context at the Academy of Visual Arts Leipzig. En 2004, escribió sus tesis doctoral en filosofía en la Humboldt-University Berlin y la Academy of Media Arts, Cologne, con
David Link
David Link (Alemania, 1971), es Director del Experimental Technologies in the Art Context at the Academy of Visual Arts Leipzig. En 2004, escribió sus tesis doctoral en filosofía en la Humboldt-University Berlin y la Academy of Media Arts, Cologne, con
The computer in society
Tapa de la Revista “Time” del 2 de abril de 1965, acompañada con el texto “The computer in society”, que ilustra un artículo en su interiror titulado “Technology: The Cybernated Generation”. En la ilustración se puede apreciar la incipiente influencia
The computer in society
Tapa de la Revista “Time” del 2 de abril de 1965, acompañada con el texto “The computer in society”, que ilustra un artículo en su interiror titulado “Technology: The Cybernated Generation”. En la ilustración se puede apreciar la incipiente influencia
Singularidad tecnológica
La singularidad tecnológica es la hipotética llegada de la Inteligencia Artificial (AI) a emular o superar las capacidades intelectuales de un ser humano. Esta expresión esta vinculada con la velocidad a la que avanza la tecnología y el aparente limitado control que tenemos sobre
Singularidad tecnológica
La singularidad tecnológica es la hipotética llegada de la Inteligencia Artificial (AI) a emular o superar las capacidades intelectuales de un ser humano. Esta expresión esta vinculada con la velocidad a la que avanza la tecnología y el aparente limitado control que tenemos sobre
Voder
El Voder, (de Voice Operating Demonstrator), desarrollado por la Bell Telephone Laboratory, fue el primer intento por sintetizar electrónicamente el habla humana descomponiéndolo en sus componentes acústicos. Fue inventado por Homer Dudley entre 1937 y 1938 y es un desarrollo de su
Voder
El Voder, (de Voice Operating Demonstrator), desarrollado por la Bell Telephone Laboratory, fue el primer intento por sintetizar electrónicamente el habla humana descomponiéndolo en sus componentes acústicos. Fue inventado por Homer Dudley entre 1937 y 1938 y es un desarrollo de su
Claude Shannon
Claude Elwood Shannon (EEUU 1916 2001) fue un matemático, ingeniero eléctrico y criptógrafo reconocido como «el padre de la teoría de la información». Shannon es reconocido por haber fundado el campo de la teoría de la información con la publicación
Claude Shannon
Claude Elwood Shannon (EEUU 1916 2001) fue un matemático, ingeniero eléctrico y criptógrafo reconocido como «el padre de la teoría de la información». Shannon es reconocido por haber fundado el campo de la teoría de la información con la publicación
Aprendizaje profundo
Aprendizaje profundo (deep learning) se llama a la utilización de algoritmos específicos aprendizaje automático (machine learning) que tienen como propósito y función intentar modelar datos partiendo de abstracciones complejas, utilizando arquitecturas compuestas de transformaciones no lineales múltiples. El aprendizaje profundo es parte de un conjunto aún
Aprendizaje profundo
Aprendizaje profundo (deep learning) se llama a la utilización de algoritmos específicos aprendizaje automático (machine learning) que tienen como propósito y función intentar modelar datos partiendo de abstracciones complejas, utilizando arquitecturas compuestas de transformaciones no lineales múltiples. El aprendizaje profundo es parte de un conjunto aún
ImageNet Roulette
ImageNet Roulette, página web creada por Kate Crawford y Trevor Paglen, que se encuentra actualmente desactivada y solo funcionando como instalación artística. Era un sitio web que buscaba mostrar las problemáticas de cómo los humanos son clasificados en sistemas de
ImageNet Roulette
ImageNet Roulette, página web creada por Kate Crawford y Trevor Paglen, que se encuentra actualmente desactivada y solo funcionando como instalación artística. Era un sitio web que buscaba mostrar las problemáticas de cómo los humanos son clasificados en sistemas de
Instituto de la UNESCO para TICs
El auge de los nuevos medios electrónicos y de las TIC (Tecnologías de la Información y la Comunicación) produce un efecto de revisión y de auto evaluación de los sistemas, contenidos y métodos en la educación primaria, secundaria y universitaria.
Instituto de la UNESCO para TICs
El auge de los nuevos medios electrónicos y de las TIC (Tecnologías de la Información y la Comunicación) produce un efecto de revisión y de auto evaluación de los sistemas, contenidos y métodos en la educación primaria, secundaria y universitaria.
Arte y percepción visual
Arte y percepción visual, libro escrito por Rudolf Arnheim (Alemania, 1904 – 2007), publicado en 1954 por la University of California Press. Editado en español en 1979. Fue el primer intento sistemático de aplicar a las artes visuales los principios
Arte y percepción visual
Arte y percepción visual, libro escrito por Rudolf Arnheim (Alemania, 1904 – 2007), publicado en 1954 por la University of California Press. Editado en español en 1979. Fue el primer intento sistemático de aplicar a las artes visuales los principios
Social Technologies
Social Technologies. Deconstruction, subversion and the utopia of democratic communication (Tecnologías Sociales. Deconstrucción, subversión y la utopía de la comunicación democrática), 2003, texto de Inke Arns (Alemania, 1968). Texto completo: http://www.medienkunstnetz.de/themes/overview_of_media_art/society/scroll/
Social Technologies
Social Technologies. Deconstruction, subversion and the utopia of democratic communication (Tecnologías Sociales. Deconstrucción, subversión y la utopía de la comunicación democrática), 2003, texto de Inke Arns (Alemania, 1968). Texto completo: http://www.medienkunstnetz.de/themes/overview_of_media_art/society/scroll/
Sunwoo Hoon
Sunwoo Hoon debutó como artista webtoon con su trabajo Damage Over Time en el portal web Daum de Corea del Sur. En 2015, ganó el Premio a artista emergente del Festival Internacional de Animación de Seúl (SICAF). Ese mismo año
Sunwoo Hoon
Sunwoo Hoon debutó como artista webtoon con su trabajo Damage Over Time en el portal web Daum de Corea del Sur. En 2015, ganó el Premio a artista emergente del Festival Internacional de Animación de Seúl (SICAF). Ese mismo año
Activismo Hacker
* Los hackers deberán ser juzgados por sus hackeos, no por falsos criterios como títulos, edad, raza, o posición. * En una computadora se puede crear arte y belleza. * Las computadoras pueden cambiar la vida para mejor. Bonsembiante, F.
Activismo Hacker
* Los hackers deberán ser juzgados por sus hackeos, no por falsos criterios como títulos, edad, raza, o posición. * En una computadora se puede crear arte y belleza. * Las computadoras pueden cambiar la vida para mejor. Bonsembiante, F.
Cyberfem
Julia Scher, (Estados Unidos, 1954). Artista contemporánea multimedial. Recibida en UCLA con un BA en Pintura/Escultura/Artes Gráfica y en la Universidad de Minnesota con una MFA Maestría en Bellas Artes. En los ´80 fundó una compañia “Safe and Secure Productions”, que se dedicaba a
Cyberfem
Julia Scher, (Estados Unidos, 1954). Artista contemporánea multimedial. Recibida en UCLA con un BA en Pintura/Escultura/Artes Gráfica y en la Universidad de Minnesota con una MFA Maestría en Bellas Artes. En los ´80 fundó una compañia “Safe and Secure Productions”, que se dedicaba a
Ética hacker
La ética del hacker y el espíritu de la era de la información (titulo original: The hacker ethic and the spirit of the information age), libro escrito en 2001 por Pekka Himanen (Finlandia, 1973). Prólogo: En el centro de nuestra
Ética hacker
La ética del hacker y el espíritu de la era de la información (titulo original: The hacker ethic and the spirit of the information age), libro escrito en 2001 por Pekka Himanen (Finlandia, 1973). Prólogo: En el centro de nuestra
allRGB
El objetivo de allRGB es simple: crear imágenes con un píxel de cada color RGB posible (16777216), sin que falte ni se repita ninguno. Para la profundidad de color de 24 bits por pixel, se habla de color verdadero debido a que
Memex
Dispositivo ideado por el científico e ingeniero Vannevar Bush (USA, 1890 – 1974), destinado a la búsqueda de información almacenada en una base de datos, considerado unos de los precursores del hipertexto y la world wide web. Si bien el mismo nunca
Memex
Dispositivo ideado por el científico e ingeniero Vannevar Bush (USA, 1890 – 1974), destinado a la búsqueda de información almacenada en una base de datos, considerado unos de los precursores del hipertexto y la world wide web. Si bien el mismo nunca