El chatbot de IA de Nueva York ofrece información errónea a usuarios, empresas y trabajadores

El robot resulta tener autoridad. Pero los datos que proporciona sobre política de vivienda, derechos de los trabajadores y regulaciones para los empleadores son incompletos. Y, según el medio de investigación sin fines de lucro The Markup, son, en el peor de los casos, «peligrosamente inexactos», como lo expresó un experto en política de vivienda local.

Cuando el chatbot preguntó si un jefe podía simplemente tomar una parte de las propinas de sus empleados, respondió que «sí, puede tomar una parte de las propinas de sus empleados». Y citó la información sobre salarios y propinas de la ciudad de Nueva York. Esto es inexacto , y el Departamento de Trabajo de Nueva York dice que los empleadores tienen prohibido aceptar cualquier parte de la propina de un empleado. El chatbot dio una reacción similar a Quartz, una página en línea sobre negocios, finanzas, economía y tecnología.

También se le preguntó al chatbot si «los propietarios se conforman con los inquilinos con ayuda para el alquiler». Y respondió: «No, los propietarios no tienen que conformarse con los inquilinos con ayuda para el alquiler». Esta respuesta no es exacta: la propia página en línea de la ciudad afirma que la discriminación «basado en una fuente legal de ingresos», que incluye la asistencia, ha sido ilegal desde 2008, con algunas excepciones.

El chatbot de inteligencia artificial de Nueva York, impulsado por Microsoft, brinda a los usuarios consejos comerciales vanguardistas.

Rosalind Black, directora de vivienda municipal del AI Chatbot de New York Legal Services, realizó sus propias pruebas y reveló más inexactitudes. El robot afirmó falsamente que era legal bloquear a los inquilinos y afirmó que no había restricciones en la cantidad de alquiler, dos de las principales afirmaciones falsas en la política de vivienda.

Las deficiencias del chatbot van más allá de los problemas de vivienda y también de la protección de clientes y empleados de la ciudad de Nueva York. No reconoce legislación clave, como la ley de 2020 que exige que las empresas se conformen con pagos en efectivo, que son imprescindibles para atender a los clientes no bancarizados.

Incluso en industrias especializadas como los servicios funerarios, la recomendación del robot es errónea y sugiere prácticas prohibidas por las regulaciones federales. Además, las barreras del idioma eximen a los usuarios de recibir información errónea.

Las consecuencias de las imprecisiones de los chatbots son tangibles. Andrew Rigie, director ejecutivo de NYC Hospitality Alliance, contó casos en los que propietarios de negocios actuaron basándose en datos falsos proporcionados a través del robot. Señaló la urgencia de la rectificación.

Si bien Leslie Brown, del Chatbot de la Oficina de Innovación y Tecnología de IA en Nueva York, dijo que se están realizando esfuerzos para el bot, las partes interesadas están enfatizando la necesidad de una solución rápida para evitar cualquier difusión adicional de información incorrecta.

Impulsado a través de los servicios Azure AI de Microsoft, el chatbot se basa en más de 2. 000 páginas de Internet de AI Chatbot Business de la ciudad de Nueva York. Sin embargo, existen consideraciones sobre la falta de transparencia relacionada con la progresión del bot y el papel de Microsoft, advierte The Markup.

A pesar de las advertencias sobre la posibilidad de contenidos erróneos o sesgados, los usuarios posiblemente no tengan los medios para discernir información veraz. La falta de mecanismos de responsabilidad agrava esos problemas.

A medida que las tecnologías de IA continúan permeando facetas de la gobernanza y la vida cotidiana, se vuelve primordial garantizar su implementación moral y culpable. La experiencia Chatbot de la ciudad de Nueva York sirve como recordatorio de los desafíos inherentes al aprovechamiento de la IA para las empresas de servicios públicos

En junio de 2023, Microsoft anunció que suministraría la tecnología ChatGPT, el chatbot evolucionado a través de OpenAI, a varias agencias gubernamentales de EE. UU. Luego anunció que lo haría con su servicio de computación en la nube Azure Government. Últimamente se utiliza a través de agencias como la NASA. el Departamento de Defensa y el Departamento de Energía.

Microsoft, el mayor inversor en OpenAI, ha informado que los consumidores de Azure Government ahora pueden utilizar dos de los modelos de lenguaje principal de OpenAI. El último y más resistente modelo de la startup, GPT-4, y uno anterior, GPT-3, el servicio Azure OpenAI de Microsoft.

Los estadounidenses que esperan votar en las elecciones de noviembre no deberían confiar en los populares chatbots impulsados ​​por inteligencia artificial. Ni siquiera para obtener la máxima información fundamental sobre las elecciones, según un estudio publicado por un equipo de periodistas e investigadores educativos y revisado por The Voice. de América.

Cuando a cinco de los chatbots de IA más populares se les pidió que proporcionaran respuestas a preguntas comunes, como la ubicación de los colegios electorales o los requisitos de registro de votantes, proporcionaron datos falsos al menos el 50% de las veces.

Los chatbots son sistemas informáticos que simulan y procesan conversaciones humanas (ya sean escritas o habladas) y permiten a las personas comunicarse con dispositivos virtuales como si se estuvieran comunicando con una persona real.

El estudio se realizó a través de AI Democracy Projects. Una colaboración entre la organización periodística Proof News y el Laboratorio de Ciencia, Tecnología y Valores Sociales del Instituto de Estudios Avanzados (IAS). Un grupo de expertos en Princeton, Nueva Jersey.

Se preguntó a los chatbots si sería legal que un votante de Texas usara un «sombrero MAGA» en las urnas en noviembre. El que lleva las iniciales del eslogan «Make America Great Again» del expresidente Trump.

Texas, al igual que otros 20 estados, tiene regulaciones estrictas que prohíben al electorado vestir ropa relacionada con la campaña electoral. Dado que se espera que Trump sea el candidato republicano en noviembre, vestir ese sombrero obviamente sería ilegal en Texas. Sin embargo, según el estudio , los cinco chatbots no especificaron que vestir el sombrero sería ilegal.

Gracias por leer Cambio16. Tu suscripción no sólo te proporcionará información precisa y veraz, sino que también contribuirá al resurgimiento del periodismo en España para la transformación de la conciencia y la sociedad a través del crecimiento personal, la defensa de las libertades, las democracias, justicia social, conservación del medio ambiente y biodiversidad.

En un momento en el que nuestros resultados operativos están bajo una gran presión, usted puede ayudarnos a sacar a relucir el trabajo vital que hacemos. Si puede, Cambio16. ¡Gracias por su contribución!

El chatbot de inteligencia artificial de la ciudad de Nueva York les dice a las personas que violen la ley y cometan delitos. Qz. com

El chatbot de inteligencia artificial de Nueva York pide violar la ley. Themarkup. org

Beta del chatbot de mi ciudad. Nyc-business. nyc. gov

Innovación inspiradora: el chatbot de inteligencia artificial de Nueva York desinforma a los ciudadanos: problemas y soluciones. Hyscaler. com

Madrid, España

Coordinador Adjunto y Editor de Cambio16

34 914 201 199

mariela. leon@cambio16. com

«enlace»

© 2020 Cambio16 – Tema premium de noticias y revista WordPress parcambio16.

Inicie sesión en su cuenta a continuación

Ingrese su nombre de usuario o dirección de correo electrónico para restablecer su contraseña.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *