in

5 hechos aterradores sobre la inteligencia artificial

5. Los robots se llevarán nuestro trabajo.

Sin duda, las máquinas un día nos quitarán el trabajo. Sin embargo, no entendemos cuándo se apoderarán de nosotros y qué escala alcanzará. Según los hallazgos, la escala será sustancial. Según la firma líder de consultoría y auditoría PricewaterhouseCoopers (PwC), los robots ocuparán el 21 por ciento de los empleos en Japón, el 30 por ciento de los empleos en el Reino Unido, el 35 por ciento de los empleos en Alemania y el 38 por ciento de los empleos en los Estados Unidos de América para 2030. Para el próximo siglo, ocuparán más de la mitad de los empleos disponibles para las personas. El sector más afectado por la intervención de robots será el transporte y el almacenamiento, donde el 56% de la fuerza laboral será maquinaria. A esto le siguen los sectores manufacturero y minorista, donde los automóviles ocuparán más del 46% y el 44% de todas las vacantes disponibles. Hablando de cuándo sucederá esto, se supone que para 2027 los autos conducirán camiones, y para el 2031 serán atendidos en tiendas minoristas. Para el 2049, los robots escribirán libros y para el 2053 realizarán una cirugía. Sólo unas pocas profesiones estarán libres de la invasión de máquinas. Uno de ellos es la profesión de un ministro de la iglesia, que permanecerá libre no porque la máquina no pueda controlar a la iglesia, sino porque la mayoría de las personas no aprueban el sermón emitido por el robot.

4. Los robots han aprendido a hacer trampa.

Como es costumbre en la sociedad humana, los robots aprenden a engañar. En un experimento, investigadores del Instituto de Tecnología de Georgia en Atlanta desarrollaron un algoritmo que permite a los robots decidir si engañar a otras personas o robots. En caso de que los robots decidan tomar el camino del engaño, los investigadores activaron un algoritmo que le permite al robot decidir cómo engañar a las personas y los robots, reduciendo la probabilidad de que la persona o el robot que está engañando lo sepa. En el experimento, al robot se le proporcionaron algunos recursos para su protección. A menudo se refirió a estos recursos, pero comenzó a visitar ubicaciones falsas cada vez que detectaba la presencia de otro robot en esta área. Este experimento fue patrocinado por la Oficina de Investigación Naval de los Estados Unidos, lo que significa que sus resultados se pueden utilizar para fines militares. Los robots que custodiaban los depósitos militares podían cambiar las rutas de patrulla si notaban que estaban siendo vigilados por las fuerzas enemigas. En otro experimento realizado esta vez en la Escuela Politécnica Federal de Lausana (Ecole Polytechnique Federale of Lausanne) en Suiza, los científicos crearon 1000 robots y los dividieron en diez grupos. Los robots tuvieron que buscar un «buen recurso» en el área designada, mientras que deberían haber evitado los «malos recursos». Cada robot tenía una linterna azul que destellaba para atraer a otros miembros del grupo cada vez que encontraba un buen recurso. Después del primer experimento, se seleccionaron 200 robots y se «cruzaron» sus algoritmos para crear una nueva generación de robots. Los robots mejoraron el algoritmo de búsqueda para un buen recurso. Sin embargo, esto llevó a su acumulación alrededor del premio. De hecho, todo se volvió tan malo que el robot que encontró el recurso a veces fue repelido por sus hallazgos. Después de 500 generaciones, los robots aprendieron a apagar sus luces cuando encontraron un buen recurso. Esto se hizo para evitar la acumulación de otros robots y la probabilidad de que sean rechazados si otros miembros del grupo se unen. Al mismo tiempo, otros robots evolucionaron hasta el punto en que comenzaron a buscar robots mentirosos, explorando el área en la que otros robots se reunieron con las luces apagadas, que es exactamente lo contrario de lo que estaban programados.

3. IA monopolizar el mercado

El mercado de la IA está monopolizado. Las grandes empresas están comprando pequeñas empresas de IA a un ritmo alarmante. A este ritmo, llegaremos a la conclusión de que la IA estará controlada por un número muy pequeño de empresas. A partir de octubre de 2016, los informes indicaron que dentro de cinco años, empresas como Apple, Facebook, Intel, Twitter, Samsung y Google adquirieron 140 empresas que operan en el campo de la IA. En los primeros tres meses de 2017, las grandes empresas de tecnología compraron 34 nuevas empresas de IA. Peor aún, también pagan una fortuna para contratar a los mejores científicos en el campo de la inteligencia artificial. Si sigue así, puedes adivinar a dónde iremos.

2. La IA superará la lógica humana y la inteligencia

La inteligencia artificial se divide en dos grupos: IA fuerte y débil. La IA que nos rodea hoy está clasificada como IA débil. Incluye tipos supuestamente avanzados de IA, como asistentes inteligentes y computadoras que han ganado ajedrez contra maestros desde 1987. La diferencia entre la IA fuerte y la débil es la capacidad de razonar y funcionar como un cerebro humano. Una IA débil normalmente realiza lo que está programado, sin importar cuán difícil sea esta tarea para nosotros. Una IA fuerte en el otro extremo tiene la conciencia y la capacidad de pensar humanamente. No se limita al alcance de la programación y puede decidir qué hacer y qué no hacer sin que una persona interfiera con ella. En este momento, no existe una IA fuerte, pero los científicos predicen que debería aparecer en unos diez años.

1. IA nos destruirá

Hay temores de que el mundo pueda sumergirse en el Apocalipsis de la IA, como sucedió en la película «Terminator». Las advertencias de que la IA puede destruirnos no provienen de algún científico aleatorio o teórico de la conspiración, sino de profesionales tan destacados como Stephen Hawking, Elon Musk y Bill Gates. . Bill Gates cree que la IA se volverá demasiado inteligente como para permanecer bajo nuestro control. Stephen Hawking comparte una opinión similar. Él no cree que la IA de repente desaparecerá. Él cree que, más bien, las máquinas nos destruirán, volviéndose demasiado competentes en lo que hacen. Nuestro conflicto con la IA comenzará a partir del momento en que sus objetivos ya no coincidirán con los nuestros. Elon Musk comparó la diseminación de la IA con «ginebra de una botella». Él cree que esta es la mayor amenaza para la humanidad. Para prevenir el apocalipsis de la IA, sugirió que los gobiernos comiencen a regular el desarrollo de la IA, antes de que las empresas comerciales «cometan más tonterías».

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Loading…

0

Comments

0 comments

La esperanza de vida vinculada al número de neuronas en el cerebro

Un hallazgo inesperado en Ecuador: los arqueólogos excavaron los enterramientos de una cultura que existió hace 10.000 años