24/11/2024

El TRUCO que me sirvió para detectar un AUDIO hecho por inteligencia artificial en 5 pasos

Hace 4 meses

El TRUCO que me sirvió para detectar un AUDIO hecho por inteligencia artificial en 5 pasos

En esta nota aprenderás algunos tips de vital importancia si es que recibes una llamado o un audio sospechoso que pudo ser creado con IA para estafarte.

En esta nota aprenderás algunos tips de vital importancia si es que recibes una llamado o un audio sospechoso que pudo ser creado con IA para estafarte.

Si bien es cierto que la inteligencia artificial ha llegado para ser un gran apoyo para los humanos, también es verdad que se puede utilizar para cosas no tan legales, como puede ser el hecho de recibir un simple audio que intente imitar nuestra voz o la de un ser querido, pero hoy aprenderemos a reconocerlas para evitar estafas.

La inteligencia artificial mostró cuál sería el aspecto humano de los Caballeros del Zodiaco. El resultado te dejará con la boca abierta.

PUEDES VER: IA revela el verdadero aspecto de Los Caballeros del Zodiaco si fueran de carne y hueso

Audios fraudulentos creados con inteligencia artificial

Y es que en los tiempos que corren, los ciberdelincuentes se han dado a la labor de clonar voces para cometer sus delitos, teniendo entre sus principales blancos a los adultos mayores, población que es la menos relacionada con las últimas tendencias tecnológicas.

En la gran mayoría de los casos, estos crímenes se realizan por medio de llamadas telefónicas y, de acuerdo a la Comisión Federal de Comercio (FCT) de los Estados Unidos, solo en 2022, se reportaron fraudes por esta modalidad por una suma que asciende a los 11 millones de dólares.

5 pasos para reconocer un audio fraudulento creado con IA

Por eso, ante esta preocupante realidad, es que debemos realizar algunos pasos imprescindibles para detectar un audio que ha sido generado por una inteligencia artificial. Toma nota.

  • Estos registros sonoros, por lo general, tienen baja calidad de audio, mostrando también incoherencias en la grabación, por lo que es importantísimo que prestes atención a los cambios de tono, la claridad de la voz.
  • Los audios con IA que clonan voces suelen tener problemas para replicar una voz completamente fidedigna, incapaz de darle emociones a la misma, sonando monótono. Presta atención a la entonación, a las pausas súbitas, pueden ser indicios de una potencial estafa.
  • Los audios clonados por IA suelen presentar otra falla: inconsistencias, es decir, respuestas que no tienen sentido de acuerdo a lo que se está hablando. Suelen cometer errores de simple lógica humana que, al menos todavía, no poseen (afirmaciones absurdas, incoherentes).
  • Es importante verificar la fuente, por lo que debes corroborar una confirmación adicional con otros medios, tales como videollamadas o redes sociales. Si se comunican contigo en nombre de una entidad oficial, hay diversas formas de confirmar la veracidad; si no cuentan con eso, entonces hay que ir con suspicacia.
  • Un último paso importante es que los audios estafa con IA siempre te pedirán información sensible como contraseñas que las entidades oficiales no suelen hacer. Nunca brindes datos personales, financieros, sobre todo si te presionan con insistencia para hacerlo, pues tienden a darte una sensación de urgencia.

Ver noticia en Libero.pe

Temas Relacionados: