El “sobreentrenamiento catastrófico” podría dañar los modelos de IA de habla sobresaliente que están capacitados en más datos en aras de la capacitación
Investigadores de las mejores universidades estadounidenses advierten que extender el pre-entrenamiento puede ser perjudicial para el rendimiento Demasiado pre-entrenamiento puede ofrecer un peor rendimiento conveniente a poco parecido al impacto…