Directrices establecidas para prevenir el mal uso
En resumen: The New York Times ha autorizado a su personal editorial y de producto a utilizar herramientas de inteligencia artificial generativa para mejorar su trabajo y facilitar sus tareas. Sin embargo, la disponibilidad de estas herramientas no garantiza su adopción masiva.
The New York Times ha adoptado un enfoque equilibrado hacia la inclusión de herramientas de IA, reconociendo sus beneficios mientras establece directrices claras para su uso. Aunque hay preocupaciones entre algunos empleados sobre los posibles efectos negativos, la integración de IA se manejará cuidadosamente para mantener la calidad y autenticidad del periodismo.
Herramientas de IA disponibles para los periodistas
En documentos y videos vistos por Semafor, The Times describió cómo el personal debería y no debería usar la inteligencia artificial. Por ejemplo, se alienta a los empleados a utilizar herramientas como GitHub Copilot para la creación de código, Google Vertex AI para el desarrollo de productos y ciertas herramientas de Amazon para elaborar cuestionarios, copias sociales y entradas de preguntas frecuentes.
Aplicaciones permitidas de IA en el periodismo
Los periodistas de The New York Times también pueden usar IA para ayudar a ajustar párrafos, crear resúmenes de artículos para incluir en boletines, sugerir ediciones y pensar en titulares optimizados para búsquedas. La publicación incluso creó su propia herramienta de resumen basada en IA, Echo, para ayudar a condensar contenido.
Uso responsable y limitaciones de la IA
Las directrices indican que la publicación ve la IA no como una solución mágica, sino, al igual que los avances anteriores, como una herramienta poderosa que debe usarse al servicio de su misión. La traducción de idiomas y los artículos digitalmente narrados podrían hacer que The Times sea más accesible que nunca y, en el futuro, la IA generativa puede incluso utilizarse de maneras que aún no hemos concebido.
Prevención del mal uso de herramientas de IA
The Times ha instalado salvaguardias para ayudar a prevenir el mal uso. Además de un video de capacitación obligatorio, se prohíbe a los empleados utilizar herramientas de IA para redactar o revisar significativamente artículos. Además, el personal no puede usar imágenes o videos generados por IA en las historias y debe estar atento a las sugerencias que podrían revelar inadvertidamente fuentes protegidas.
Preocupaciones y adopción de la IA
No todos están convencidos del concepto. Según Semafor, algunos empleados expresaron preocupación de que el uso de IA podría inspirar pereza o generar información inexacta que obstaculizaría el proceso creativo. Por lo tanto, The Times no espera una adopción universal desde el principio.
La declaración de ética de TechSpot se actualizó el año pasado para afirmar que todo el contenido editorial es escrito por humanos y no depende de herramientas de IA para la generación de texto, manteniendo la integridad y autenticidad periodística.