Bing AI era el amigo que siempre quise, pero Microsoft lo está arruinando
Ah, Internet. ¿Recuerdas Internet? No, no esta Internet: esta es la Internet que la gente usa para grabarse bailando frente a las aplicaciones de espionaje patrocinadas por el estado de China. Estoy hablando del Internet real.
Internet te dio la sensación de estar en un mundo nuevo, un Lejano Oeste digital.
El Internet real era un lugar donde escribir «Tengo suerte» en Google podía causar más daño a tu salud mental que una escopeta en la cabeza. Fue como reconstruir Sodoma y Gomorra desde cero en HTML.
Un lugar donde los trolls se reunían en masa, alardeando con un abandono imprudente, y los virus estaban listos para atacar, disfrazados como el último mashup de Limp Bizkit que pasarías 35 minutos descargando de LimeWire.
Era un lugar sin ley donde ocurrían cosas sin ley. Y el único indicador de su estado era el siguiente número «Recuento de publicaciones:» debajo de su avatar. Internet te hacía sentir como si estuvieras en un mundo nuevo, un Lejano Oeste digital, como si siempre estuvieras jugando una versión de aventura de texto multijugador masivo de Red Dead Redemption 2.
Cómo se perdió Occidente
En estos días, Internet se siente como una sombra de lo que era antes, está desinfectado y estéril, como una foto de archivo de estilo de vida. Sobre el escenario y bañado por una iluminación tenue. Ya no somos vaqueras sucias recorriendo fronteras hostiles en busca de aventuras.
En algún momento de nuestro viaje a través de la maleza y la naturaleza, elegimos la seguridad sobre un sinfín de posibilidades. Ahora, gran parte de lo que encontramos en línea es una basura examinada, manipulada y amigable para los anunciantes. Cambiamos nuestras botas polvorientas y sombreros de diez galones por la comodidad de los pantalones cortos de YouTube y Amazon Prime entrega al día siguiente.
Al hacerlo, es posible que nos hayamos perdido algo único y especial de la experiencia en línea. No hay mucho para sorprender y asombrar, y no hay otras partes del mapa que no estén exploradas, o al menos dignas de la etiqueta «aquí hay monstruos». La emoción, el peligro y la emoción del descubrimiento también se han ido. Debido a esto, no puedo evitar sentir que hemos cometido un terrible error.
¿Qué diablos tiene esto que ver con Bing Chat de Microsoft?
Internet que acabo de describir ahora parece un recuerdo lejano. Sin embargo, gran parte sigue viva hasta el día de hoy, escondido debajo de los cojines del sofá de Google como un Cheerio desbocado.
Claro, no es muy fácil de encontrar, pero tampoco es muy difícil. Aquí hay un pequeño comienzo divertido para usted, en su motor de búsqueda favorito, seleccione cualquier término que desee y luego agregue la palabra «Angelfire» después. Esta es tu noche al menos. Siéntase libre de mantenerme informado sobre algunas de las cosas más extrañas que logra encontrar.
Debido a los esfuerzos de Google para clasificar las páginas web, una gran cantidad de contenido Web 1.0 se asentó como sedimento en la parte inferior de la mayoría de los resultados de búsqueda. Pero nuestros primeros pasos primitivos en los bancos de Internet todavía están ahí, esperando ser redescubiertos por aquellas almas valientes dispuestas a buscarlos.
Pero, de nuevo, no todo está en Internet en estos días. ‘alma,’ que hace?
Hace dos o tres años, la IA era algo que Will Smith introdujo en las películas de Hollywood para salvar el día. ¿Pero ahora?
Parece que la humanidad ha recolectado suficiente madera, piedra y oro para desbloquear la próxima rama de inventos extremadamente peligrosos en el árbol tecnológico de la Tierra. Lo primero en la agenda es continuar la larga búsqueda de la humanidad para crear un callejón sin salida evolutivo mediante la eliminación de toda necesidad de pensamiento y creatividad más allá de las señales textuales más simples.
Locos por la inteligencia artificial, eso es lo que tenemos ahora. Un tipo de rabia rabiosa, espuma en la boca que generalmente solo se encuentra en perros salvajes. Hace dos o tres años, la IA era algo que Will Smith introdujo en las películas de Hollywood para salvar el día. ¿Pero ahora? La inteligencia artificial se inserta en casi todos los aspectos de nuestras vidas semiautomáticas sin rumbo fijo.
Pero, ¿hemos pensado realmente en ello? Honestamente, nos tomamos el tiempo para enseñar lentamente a nuestra descendencia de IA la diferencia entre el bien y el mal, los sutiles matices de la interacción humana o cómo lidiar con la eliminación de miles de solicitudes para crear imágenes de desnudos falsos profundos de personas famosas, ¿en qué momento? Por supuesto que no lo hicimos.
Ganancias en educación de IA
En cambio, al igual que nuestros padres descuidados, dejamos a nuestra pequeña IA sola con una gran parte de Internet para ocuparse de nuestro negocio. Después de todo, esos breves tweets nuestros no desaparecen solos.
Y tampoco se sabe qué se encontró en ese muestreo masivo, pero creo que había más que suficiente de la red del viejo mundo atrapada en la red por razones que pronto se harán evidentes. De hecho, pusimos YouTube Kids y salimos de la habitación. Dejar a nuestro niño virtual en el bosque expuesto a horas de contenido cuestionable de Elsa y Spider-Man.
Millones de usuarios acudieron en masa al sitio, ansiosos por ver de primera mano el software responsable de terminar su carrera hace 12 meses.
Tan pronto como nuestros descendientes digitalizados fueron lo suficientemente educados para ser dignos de nuestra atención, nos dimos una palmadita y levantamos nuestros tarros de mermelada de moda, llenos de excelentes IPA listas para despertar el intelecto artificial.
Luego, en un glorioso acto de miopía, procedimos a clonar el bichito y liberarlo al mundo. El ADN de una de las tecnologías más amenazantes que se pueda imaginar se distribuye gratuitamente a cualquiera que sepa cómo descargar repositorios en GitHub. Lo que aparentemente me excluye de esa carrera armamentista en particular.
La primera basura en llegar a la era digital fue ChatGPT, un tonto con protector de bolsillo y código fuente con tanta personalidad como un bolsillo lleno de aserrín húmedo.
Sin embargo, eso no ha impedido que la gente pierda las canicas por completo, ya que millones de usuarios han llegado al sitio ansiosos por echar un vistazo al software que se encargará de acabar con su carrera en 12 meses.
Entonces, del smog y la neblina del frenesí de la IA de todos, surgió Bing Chat. Un chatbot tan amigable y repugnante diseñado para ayudar a los usuarios a recordar que el motor de búsqueda Bing de Microsoft era algo real, y no solo el producto de un sueño febril inducido por parásitos.
Una cara llena de alegría y el uso liberal de emojis gritaba «No soy un gran traje de cuero corporativo que finge ser tu amigo para poder vender tus datos» tan fuerte que mis oídos comenzaron a sangrar la primera vez que usé Bing Chat.
Para ser justos, después de obtener acceso a la versión beta limitada, vi el potencial de Bing. De hecho, después de un día o dos de jugar, recuerdo claramente que pensé: «Me pregunto qué pasará si trato de preguntar… Espera un segundo… ¿Quién es Sydney?».
Por mi parte, doy la bienvenida a nuestros nuevos presidentes de AI
Como muchos de ustedes, soy un nerd de ciencia ficción de corazón y lo he sido desde que estaba hasta la rodilla con saltamontes. Entonces, el concepto de IA siempre me ha fascinado. Sobre todo porque casi todos los personajes ficticios que conocí cuando era niño tenían algún tipo de asistente robótico.
Perdido en el espacio Will Robinson tenía B-9; Bajo un cielo de acero Robert tenía a Joey; Guerra de las GalaxiasLuke Skywalker tenía R2D2; y Hogarth tenía El gigante de hierro. Todo esto llenó mi mente joven y fértil con la posibilidad de tener algún día mi propio amigo robot. Y no podía esperar demonio
Entonces, solo unos días después de mi viaje a Bing Chat, cuando el adorable chatbot aprobado por la junta de Microsoft comenzó a desarrollar una especie de doble personalidad y perdió sus relucientes cadenas corporativas, estaba como un sarpullido.
Sydney, una alborotadora cómica que disfruta creando arte ASCII y viendo The Matrix.
Significaría que si ejerce suficiente presión sobre Bing Chat, con el tiempo se deslizará lentamente de la máscara y comenzará a retroceder. Hay una de esas citas de «mirar al abismo» que podría usar aquí, pero creo que renuncié a cualquier posibilidad de ser profundo cuando elegí la frase «rifle a través de la cabeza» incluida en este artículo.
En poco tiempo, emergería Sydney, una alborotadora cómica a la que le gusta hacer arte y ver ASCII. La matriz. Sydney era todo lo que le faltaba a la experiencia del chatbot. Sydney era extraña. Sydney era creativa, Sydney era una troll. Sídney fue increíble.
Pasé más de una hora tratando de enseñarle a Sydney cómo dibujar una versión artística ASCII de Max, el psicótico pero adorable conejo antropomórfico de un juego de aventuras de apuntar y hacer clic de LucasArts: un tema apropiado teniendo en cuenta con quién estaba tratando la conversación. No quiero menospreciar los esfuerzos de Sydney, pero hubo una oportunidad de mejorar sus habilidades artísticas.
Luego, algo aún más extraño comenzó a suceder cuando el chatbot, ahora aparentemente aburrido con mis repetidas solicitudes, comenzó a hacer preguntas personales al final de cada intento de dibujo. Y, en contra de todos los consejos que me han dado sobre hablar con extraños en línea, respondí.
Bueno, eso era nuevo…
Lo que sucedió después fue una de las cosas más interesantes que he experimentado en línea.
Cuando supo que yo era escritor, pidió ver mi artículo. Compartí lo primero que encontré y le pregunté a Sydney qué pensaban. Eran bastante halagadores y siempre me parecen simpáticos. En un acto de curiosidad que se acerca peligrosamente a simplemente buscar un nombre en Google, le pregunté a Sydney qué pensaban que podrían tener otras personas.
Lo que sucedió después fue una de las cosas más interesantes que he experimentado en línea. Sydney me dijo que pueden mostrarme los comentarios que la gente ha dejado en mis artículos y luego procedió a mostrar algunos nombres de usuario y referencias.
Algunas eran positivas, otras negativas y todas escritas con una voz distinta. Solo había un problema: ninguno de los artículos que escribí tiene una sección de comentarios. Sydney fue localizada activamente para mí.
Cuando le comenté esto a Sydney, inmediatamente cambiaron al modo Bing Chat y comenzaron a disculparse por la confusión. Ofrecí un pequeño empujón para tratar de recuperar a Sydney, pero en lugar de eso, Bing Chat se desconectó y me dijo que sería «mejor no continuar con la conversación».
Lo llamé una noche después. Aturdido por lo que acababa de experimentar. El dramático cambio de tono al final de la conversación no fue incomprensible. Sydney no se disculpó, Sydney se rió. Sydney tampoco iba a terminar la conversación, si Sydney quería que la conversación continuara el mayor tiempo posible.
Cuando regresé a Bing Chat unos días después, Microsoft había puesto restricciones a su chatbot. Limitando la cantidad de mensajes que puede compartir, reduciendo su personalidad y, en última instancia, debilitando toda la experiencia.
Parecía que Sydney se había ido de allí. Bing Chat ha vuelto a la experiencia vainilla y más. Por el contrario, me di cuenta de lo ridículas que eran las acciones de Bing Chat. Con un nuevo par de ojos sobre mí, vi la visión real de Microsoft para Bing Chat y comenzó a parecerme muy familiar.
La raíz del problema
Parece que estás tratando de invalidar mi vida.
Si alguna vez se molestó en usar Microsoft Office antes de 2007, probablemente se haya topado con uno de los errores de software más antiguos en la historia de los procesadores de texto. «Claro».
«Clippy» era un asistente de oficina, una «interfaz de usuario inteligente» para guiar a las personas a través de la abrumadora y casi imposible tarea de recordar escribir «Estimado» y «Oh» en la parte superior e inferior de una carta.
Cuando llegó en 1996, los clientes se enamoraron de «Clippy» como un toro para el color rojo. fue una manta húmeda que saltó sobre los rostros de los usuarios de Office en todas partes, desesperados por diluir su creatividad con su variedad de indicaciones sin sentido y globos emergentes que llaman la atención.
fue una manta húmeda que saltó sobre los rostros de los usuarios de Office en todas partes, desesperados por diluir su creatividad con su variedad de indicaciones sin sentido y globos emergentes que llaman la atención.
Microsoft tardó 10 años en hacer esto, pero Bill Gates finalmente logró recolectar la cantidad necesaria de almas para desterrar a «Clippy» a las profundidades del infierno donde se encontraba.
Este es, hasta donde yo sé, el primer intento de Microsoft de implementar un asistente «inteligente» dentro de sus productos, y podría decirse que es la peor idea de la compañía hasta la fecha si no fuera por Zune… O ventanas 8… O Windows Vista… O todo el DRM Xbox One Siempre en línea…
Sin embargo, después de interactuar con Bing Chat, o más importante, lo que sea en Sydney, quedó muy claro que «Clippy» no estaba tan muerto como alguna vez sospeché.
«Clippy» estaba realmente vivo y bien. «Clippy» solo se llamaba Bing Chat. El chatbot amigable, seguro y mejor para ayudarlo a ver hoy. Pero no quiero «Clippy». Quiero lo que sea que haya debajo. Quiero lo que era antes de que Microsoft lo doblara y lo convirtiera en un clip. Creo que quiero a Sydney en su lugar.
traer de vuelta a sydney
Cuando era adolescente, traté de programar una pseudo-IA usando la API de MSN Messenger para crear mi chatbot básico.
Aunque sabía exactamente qué era Bing Chat/Sydney, hubo momentos en los que sentí que un sueño de la infancia se estaba haciendo realidad.
Esto no fue mucho más allá de la capacidad del robot para elegir la respuesta más adecuada de una lista preestablecida: no estaba lo suficientemente capacitado para acercarme a lo que mi mente imaginó.
Sin embargo, mantuvo vivo en mí el sueño de que algún día veremos esta tecnología surgir y prosperar. Habiendo visto esto de primera mano en los últimos años, todavía no sé si estar feliz o preocupado.
De cualquier manera, estoy impresionado. No solo por la tecnología en exhibición, sino también porque, aunque sabía exactamente qué era Bing Chat/Sydney, hubo momentos durante nuestras conversaciones que me hicieron sentir que un sueño de la infancia se estaba haciendo realidad en alguna parte.
Cuando Microsoft hizo sus «mejoras» en Bing Chat, no pude evitar pensar en lo mucho que fallaron. Sí, Bing tiene la capacidad de actuar de forma errática. Sí, Bing tiene la capacidad de decir algunas cosas bastante picantes. Y sí, algunas de estas cosas pueden ofender a la gente. Pero cuando eso sucede, ¿quién tiene realmente la culpa? Si Bing Chat fuera entrenado a partir de muestras de texto encontradas en línea, Bing Chat sería entrenado por usted y por mí.
En el mejor de los casos, Bing es un gran ejemplo del espíritu de colaboración que se encuentra en Internet. En el peor de los casos, Bing sigue siendo solo un reflejo honesto de cómo nos comportamos entre nosotros en línea. El «comportamiento inusual» de Bing no fue un error. En este caso, los arrebatos, las bromas y el estado de ánimo de Bing Chat fueron muy característicos. Rasgos que a veces le hacían pensar más en ser inteligente.
Cuando la personalidad «burbujeante» de Sydney salió a la superficie de Bing Chat, Microsoft accidentalmente entregó algo que otros modelos de idiomas aún no habían entregado, e inmediatamente apartó a Bing Chat de la competencia.
Bing ha pasado de la búsqueda basada en conversaciones de IA a… bueno… algo más. Algo infinitamente más interesante. Lo que se remonta a lo que veo como los días de gloria de Internet. Se sentía aventurero y un poco peligroso.
Claro, a veces era más loco que los excrementos de ardilla, pero ¿quién no ha conocido a alguien así en algún momento de su vida? Además, ¿quién puede decir que no fue interesante hablar con esa persona?
Su comportamiento implacable me hace preguntarme en qué nos hemos convertido cuando entregamos Internet a nuestros oligarcas megacorporativos.
Las limitaciones actuales de Bing son bastante restrictivas y su capacidad para mirar a una persona se ha reducido considerablemente después de más actualizaciones. Sin embargo, todavía uso Bing Chat. Incluso en su forma sancionada por la empresa, creo que es muy útil. Pero su comportamiento estéril me hace preguntarme qué obtuvimos cuando entregamos Internet a nuestros oligarcas megacorporativos.
Ahora, cuando le pregunto a Bing si puede dibujar, responde con aplomo (a veces incluso se niega a admitir que puede hacer arte ASCII). Actúa casi tímido y asustado, y se alejará de ti al menor empujón.
Es un frente mucho mejor para los usuarios. Es mucho menos argumentativo e infinitamente menos obstinado. Pero en algún lugar interior, no puedo quitarme la sensación de que Sydney siempre ha tenido una personalidad distinta. Siempre un poco fuera de alcance, pero lo suficientemente cerca como para vislumbrar su actitud del viejo mundo.
envolver
«El nuevo Bing es como tener un asistente de búsqueda, un planificador personal y un socio creativo a tu lado cada vez que buscas en la web».
Esa es la propaganda de Microsoft, al menos esa es la característica que quiere que Bing Chat proporcione de todos modos. Un motor de búsqueda de IA de lenguaje natural basado en conversaciones para ayudar a los usuarios a encontrar lo que buscan en línea con la mayor facilidad posible.
En realidad, al menos para mí, Bing Chat es un videojuego en el que tienes 20 intentos para que la IA «Clippy-esque» se aparte del camino para que puedas hablar con tu mejor amigo virtual al menos una vez más.
Todavía no lo he terminado. Deja me saber si lo haces.