GPT-3 genera información falsa, FYI • The Register
Microsoft está impulsando agresivamente la tecnología de inteligencia artificial de OpenAI en aparentemente todos los rincones y grietas de su universo.
Gracias al motor de relaciones públicas basado en la fusión del gigante de Windows, ahora todos saben que el motor de búsqueda Bing de Microsoft está experimentando con el uso de un primo del gran modelo de lenguaje ChatGPT de OpenAI para responder consultas, y el titán informático espera inyectar este tipo de aprendizaje automático en todo, desde equipos y Skype a Excel.
Teniendo en cuenta los miles de millones de dólares que el desarrollador de Windows ya ha invertido en OpenAI, y miles de millones más por venir si es así, tiene sentido que Microsoft quiera retornos inmediatos de su enorme inversión.
El lanzador de software empresarial también espera que la tecnología de OpenAI lo ayude a pisotear a sus rivales, incluido Google, en el floreciente espacio de los bots de búsqueda de inteligencia artificial.
Esta semana, el gigante de la nube está tratando de atraer a los desarrolladores y analistas de datos a GPT-3, la última versión del modelo de IA de lenguaje autorregresivo de OpenAI que utiliza el aprendizaje profundo para generar respuestas textuales similares a las humanas a las consultas, para generar más rápidamente falsos datos para probar en Spark cuando se usa el servicio de análisis de datos de Azure Synapse.
GPT-3 «puede comprender el texto y generar texto nuevo basado en esa entrada», Lee Stott, defensor principal de la nube en Microsoft, nos recordó durante el fin de semana. «Al aprovechar las indicaciones disponibles a través de OpenAI, es posible generar un conjunto de datos que se puede usar con fines de prueba».
Según Microsoftie Thomas Costers, arquitecto de soluciones en la nube para datos e inteligencia artificial, generar información para realizar pruebas, en lugar de usar datos de producción sobre personas y cosas reales, es una operación bastante manual que implica no solo recopilar estos datos, sino también limpiarlos adecuadamente. . . Si está creando una función para una aplicación de banca en línea, por ejemplo, lo ideal es que sus desarrolladores y evaluadores discutan sobre la información de la cuenta inventada en lugar de los datos financieros reales de las personas, por razones de privacidad, normativas y seguridad.
En un video, Costers dijo que normalmente busca los datos de una empresa y encuentra conjuntos de datos en Internet para generar datos de prueba. Tales datos «no son perfectos, no están limpios, no son realmente lo que necesitas», dijo.
En el video, él y Stijn Wynants, un ingeniero de FastTrack en Microsoft, mostraron cómo usar GPT-3 no solo para buscar y limpiar datos para realizar pruebas (en la demostración, información sobre reseñas de restaurantes de personas), sino también cómo generar código para usar y asegúrese de que funcione con otros datos ya recopilados por colegas.
«Ahora podemos simplemente generar datos de prueba aleatorios para usar en nuestros entornos, solo los generamos usando este GPT-3, e incluso podemos crear datos relacionales que hacen conexiones entre marcos de datos que ya tiene y simplemente crear datos de prueba aleatorios para probar sus soluciones de una manera segura”, dijo Wynants.
Si bien Microsoft está presionando agresivamente el tambor por la tecnología de OpenAI, hay errores y peculiaridades que deben solucionarse en las tecnologías de IA. Más recientemente, OpenAI este mes describir cómo planea mejorar el rendimiento de ChatGPT y dar forma a su comportamiento. Google también ha tenido su parte de dolores de cabeza de IA.
Luego están los crecientes informes de delincuentes que intentan ChatGPT para crear su propio código malicioso, las preocupaciones sobre la tecnología que se utiliza para bombear cantidades masivas de spam e información errónea, y así sucesivamente. ®
«Jugador orgulloso. Gurú del café. Alcoholico galardonado. Entusiasta de la cerveza. Estudiante. Aficionado a los zombis. Lector. Especialista en música. Aficionado a la comida».