Adobe presenta Project Music GenAI Control, su plataforma experimental para crear y editar audio con IA generativa

La plataforma experimental Project Music GenAI Control de Adobe.
La plataforma experimental Project Music GenAI Control de Adobe. - ADOBE
Publicado: jueves, 29 febrero 2024 10:33

   MADRID, 29 Feb. (Portaltic/EP) -

Adobe ha presentado Project Music GenAI Control, una herramienta experimental de edición y generación de audio impulsada por Inteligencia Artificial (IA) generativa, con la que los usuarios podrán crear nueva música a partir de indicaciones de texto, así como editar y personalizar posteriormente dicha pieza.

   Además de sus herramientas de edición de imagen con Photoshop, gestión de documentos con Acrobat y diseño digital con InDesign, la compañía de 'software' estadounidense también pretende facilitar a creadores de audio, como locutores, podcasters o músicos, opciones para llevar a cabo sus proyectos con herramientas específicas de edición y generación de audio impulsadas por IA generativa.

   En este sentido, Adobe ha presentado un nuevo trabajo experimental, desarrollado por Adobe Research, llamado Project Music GenAI Control, que se basa en una plataforma que recoge diversas herramientas impulsadas por IA generativa para editar y generar audio y música a partir de indicaciones de texto.

   Tal y como ha explicado Adobe en un comunicado en su blog, para comenzar a crear audio, bastará con que los usuarios introduzcan un mensaje de texto descriptivo sobre el tipo de audio que desean generar. Por ejemplo, "jazz triste" o "rock potente".

   Tras ello, el modelo de IA generativa de Project Music GenAI Control utilizará la IA para generar música en base a las indicaciones introducidas en el texto. Además, una vez esté creado el audio, los usuarios podrán editar esta pieza, ya que se integra directamente en el flujo de trabajo de la plataforma de Adobe.

   Así, la compañía ha especificado que los usuarios podrán gestionar el audio a través de una interfaz sencilla, en la que deberán ajustar el tiempo, la estructura y los patrones repetitivos de la pieza musical generada, hasta crear exactamente la melodía deseada. Igualmente, podrán editar cuestiones como cuándo aumentar o disminuir la intensidad de audio, extender la longitud de una nota o remezclar la pieza de música con otras melodías.

   Siguiendo esta línea, Adobe ha subrayado que otra de las opciones que ofrece la plataforma es resolver los puntos débiles del flujo de trabajo de un extremo a otro. Esto es, un sistema mediante el que, en lugar que los usuarios tengan que cortar manualmente la música para crear introducciones, finales y piezas de audio de fondo, Project Music GenAI Control lo hace de forma automática.

   Tal y como ha apostillado el investigador científico senior de Adobe Research, Nicholas Bryan, con Project Music GenAI Control, la IA generativa se convierte en el "cocreador" de los usuarios.

   De hecho, según ha matizado, esta plataforma destaca porque no solo es útil para generar audio si no que eleva las posibilidades de trabajo "al nivel de Photoshop". "Brinda a los creativos el mismo tipo de control profundo para dar forma, ajustar y editar su audio. Es una especie de control a nivel de píxeles para la música", ha apostillado.

   Para llevar a cabo esta plataforma, la compañía se ha apoyado en su familia de modelos de IA, Firefly, con la que, según ha recordado, se ha convertido en uno de los modelos de generación de imágenes más utilizados, con más de 6 millones de imágenes hasta la fecha.

   Con todo ello, Adobe ha subrayado que se compromete a garantizar que su tecnología se desarrolle de acuerdo con los principios éticos de responsabilidad y transparencia en materia de IA. Por ejemplo, en el caso del contenido generado con Firefly, se incluyen automáticamente Credenciales de Contenido, es decir, unas etiquetas con las que se identifica el contenido digital "dondequiera que se use, publique o almacene".

   Por el momento, Project Music GenAI Control se trata de un trabajo experimental que Adobe está desarrollando en colaboración con la Universidad de California en San Diego, así como con la Facultad de Ciencias de la Computación de la Universidad Carnegie Mellon.

Leer más acerca de: