
9to5Mac Security Bite es presentado exclusivamente por Mosyle, la única Plataforma Unificada de Apple. Todo lo que hacemos es hacer que los dispositivos Apple estén listos para trabajar y sean seguros para la empresa. Nuestro exclusivo enfoque integrado de dirección y seguridad combina soluciones de seguridad de última engendramiento específicas de Apple para endurecimiento y cumplimiento totalmente automatizados, EDR de próxima engendramiento, confianza cero impulsada por IA y dirección de privilegios monopolio con el MDM de Apple más potente y reciente del mercado. El resultado es una Plataforma Unificada Apple totalmente automatizada, en la que actualmente confían más de 45.000 organizaciones para que millones de dispositivos Apple estén listos para funcionar sin esfuerzo y a un costo asequible. Solicita tu PRUEBA EXTENDIDA hoy y comprende por qué Mosyle es todo lo que necesitas para trabajar con Apple.
Por esta época, hace dos primaveras, la increíblemente popular API GPT-4 de OpenAI se estaba extendiendo como la pólvora por toda la App Store. No pasó mucho tiempo antaño de que las aplicaciones de productividad impulsadas por IA, los compañeros de chatbot, los rastreadores nutricionales y básicamente cualquier otra cosa que se te ocurra dominaran las listas, obteniendo millones de descargas. Un avance rápido hasta el día de hoy, muchas de esas aplicaciones oportunistas codificadas por vibraciones han desaparecido, en parte correcto a la exageración, pero todavía La postura más dura de Apple contra imitaciones y aplicaciones engañosas.
Sin retención, esta semana, El investigador de seguridad Alex Kleber se dio cuenta Ese chatbot de IA engañoso, que se hacía producirse por la marca OpenAI, logró obtener las mejores calificaciones en la categoría Empresas. Aunque en la Mac App Store menos popular, esto sigue siendo significativo y justifica que un anuncio de servicio manifiesto sea cauteloso al compartir información personal con estas aplicaciones.
La aplicación empresarial número uno “AI ChatBot” en macOS parece hacerse producirse por la marca OpenAI desde su logotipo y nombre hasta su diseño y método. La investigación muestra que fue creado por el mismo desarrollador que otra aplicación casi idéntica. Uno y otro comparten nombres coincidentes, interfaces y capturas de pantalla idénticas, e incluso el mismo sitio web de soporte que conduce a una página gratuita de Google. Asimismo aparecen en la misma cuenta de desarrollador y dirección de empresa ubicada en Pakistán.
A pesar de que Apple eliminó la mayoría de las aplicaciones imitadoras de OpenAI, estas dos pasaron desapercibidas y ahora se encuentran entre las principales descargas en la Mac App Store de EE. UU.
No hace desidia aseverar que las revisiones, la clasificación o incluso la aprobación de una aplicación en la tienda no necesariamente garantizan la seguridad con respecto a la privacidad de los datos.

A documentación fresco publicado por Private Internet Access (PIA) encontró ejemplos preocupantes de poca transparencia en muchas de estas aplicaciones de productividad personal. Un popular asistente de inteligencia sintético que utilizó la API ChatGPT recopiló silenciosamente muchos más datos de legatario de los que afirmaba la descripción de la App Store. La relación decía que solo recopilaba mensajes e ID de dispositivos para mejorar la funcionalidad y regir cuentas. Su política de privacidad mostró que todavía recopila nombres, correos electrónicos, estadísticas de uso e información del dispositivo, que a menudo termina vendiéndose a intermediarios de datos o utilizado con fines nefastos.
Cualquier aplicación de clonación de GPT que recopile entradas de usuarios vinculadas a nombres reales es una prescripción para el desastre. Imagine un conjunto masivo de conversaciones donde cada mensaje está vinculado a la persona que lo dijo, enclavado en una cojín de datos incompleta administrada por una empresa trasgo con una política de privacidad generada por inteligencia sintético que no tiene validez en el país donde residen. Eso está sucediendo en algún ocasión ahora mismo.
Se podría suponer que esta es la razón por la que la App Store tiene etiquetas de privacidad. Si correctamente Apple las introdujo para ayudar a los usuarios a comprender qué datos recopila una aplicación y cómo los usa, los desarrolladores informan sobre estas etiquetas. Apple confía en su honestidad. Los desarrolladores pueden estirar la verdad y Apple no tiene ningún sistema para verificarla.
Creo que es importante seguir haciendo pasar la voz de que estas aplicaciones todavía existen, recopilando quién sabe qué información y datos de usuarios desprevenidos. Sin duda, estos plantean enormes riesgos para la privacidad. ¡Corre la voz!










