Vai al contenuto
Melius Club

Un sorta di "crossover intelligente" che però separa gli strumenti di una registrazione, e generato con l'AI. Rimarrebbe nella sfera HI-FI? E tra quanto tempo potremmo vederlo?


Messaggi raccomandati

checilascialozampino

Oppure mettiamola così, guardando un attimo più dall'alto..:

 

"Oggi l'AI può probabilmente comporre una sinfonia e farla suonare da un'orchestra.

Siamo ancora all'interno dell'HiFi?

Per me no.

Ma è possibile un contributo dell'AI nell'Hi-Fi, e quanto e come applicando l'AI si rischia di uscire da un ascolto "audiofilo"?"

IL tema del thread che suggerisco è una possibile risposta a questa domanda, e gli interrogativi che si porta essa stessa dietro..

 

 

checilascialozampino

Quale sarà il rapporto nel recente futuro tra "Hi-fi" ed "AI-fi" ???

 

Questo è l'interrogativo in nuce al thread.

teramusic
5 minuti fa, checilascialozampino ha scritto:

Oppure mettiamola così, guardando un attimo più dall'alto..:

"Oggi l'AI può probabilmente comporre una sinfonia e farla suonare da un'orchestra.

Siamo ancora all'interno dell'HiFi?

Per me no.

Ma è possibile un contributo dell'AI nell'Hi-Fi, e quanto e come applicando l'AI si rischia di uscire da un ascolto "audiofilo"?"

IL tema del thread che suggerisco è una possibile risposta a questa domanda, e gli interrogativi che si porta essa stessa dietro..

Cosa c'entra chi compone o esegue la musica con la riproduzione fedele del suono (hi-fi)?

Un sistema hi-fi può riprodurre fedelmente musica composta da un bischero o suonata da una schiappa, fino a riprodurre fedelmente suoni artificiali (ne sanno qualcosa gli appassionati di musica elettonica....).

Stai mescolando concetti diversi.

jakob1965
1 ora fa, checilascialozampino ha scritto:

L'IA oggi, ovviamente tramite operatore e logaritmi,

 

credo tu intenda  " algoritmi "

extermination

Al sistema elettroacustico,

non frega una sega di strumenti e strumentisti; lui vede solo ed esclusivamente frequenze - tempo ed energia - null’altro! 

  • Moderatori
paolosances

Non divaghiamo more solito: il focus del 3ad: Intelligenza artificiale ( se ...e quando) sarà in grado di "progettare " un crossover. 

Qui adesso si leggono ipotesi di realizzazione ad opera degli utenti.

"Non ci siamo, Rambelli...non ci siamo" ( cit.Dogui)

1 ora fa, checilascialozampino ha scritto:

Voglio avere due woofer in cui in uno ci sia la traccia del contrabbasso, ed in uno solo la grancassa.

Nello stesso diffusore?

La vedo dura.

Cmq.. quello che desideri è sicuramente fattibile, non facile, dall'esito incerto, ma fattibile come frutto di un lavoro sia a monte sul segnale, sia a valle sulla partizione delle frequenze.
 

In ogni caso resta il problema cui non non abbiamo mai accennato: ovvero che tutto questo Ambaradam potrebbe funzionare su un brano o su una "session", e basta.

Dalle mie conoscenze non credo che una AI possa fare questo, né tantomeno una app.

Bisogna lavorarci.

appecundria

La soluzione non può essere quella di suddividere il segnale in frequenze.

Primo: perché già è così. 

Secondo: perché gli strumenti musicali si sovrappongono sulle stesse frequenze.

Se si vuole una riproduzione uno strumento = una via, occorrono software e hardware a 48 canali con 48 diffusori acustici quasi full range.

Servirebbe pure Raul Bova per spiegarlo alle mogliere.

checilascialozampino
17 minuti fa, paolosances ha scritto:

Non divaghiamo more solito: il focus del 3ad: Intelligenza artificiale ( se ...e quando) sarà in grado di "progettare " un crossover. 

Qui adesso si leggono ipotesi di realizzazione ad opera degli utenti.

"Non ci siamo, Rambelli...non ci siamo" ( cit.Dogui)

 Colpa mia probabilmente, volevo rendere il significato del tema e forse mi sono dilungato.

 

"crossover" nel senso specificato ovviamente, che non è quello tradizionale..

appecundria
13 minuti fa, paolosances ha scritto:

se ...e quando

Mai. Una volta miscelati i segnali non sono più discernibili. A meno di non avere un microfono che aggiunga un marcatore al suo segnale, tale che possa poi essere de-miscelato dal player. Poi occorrono sempre n amplificatori più n diffusori.

checilascialozampino
14 minuti fa, scroodge ha scritto:

Nello stesso diffusore?

Boh questo è indifferente.

Ora lo stesso woofer fa basso e grancassa.

 

15 minuti fa, scroodge ha scritto:

 

Dalle mie conoscenze non credo che una AI possa fare questo, né tantomeno una app.

Bisogna lavorarci.

 

Grazie della risposta.

checilascialozampino
11 minuti fa, appecundria ha scritto:

Se si vuole una riproduzione uno strumento = una via, occorrono software e hardware a 48 canali con 48 diffusori acustici quasi full range.

Servirebbe pure Raul Bova per spiegarlo alle mogliere

penso più a famiglie di strumenti che possono confliggere molto, per potenza e differenza di segnale nella stessa frequenza.

 

L'esempio appunto di grancassa e contrabbasso rende abbastanza l'idea.

Come organo nelle note acute e piatto della batteria in ambito tweeter (non mi viene un esempio molto calzante.. ma ce ne saranno..)

 

in questo senso ha meno interesse credo dividere un violino da una viola, perché la membrana in questo casa lavora fisicamente ma in modo abbastanza simile.

 

Poi certo si può perfezionare, come tutto, all'infinito se ne valesse la pena.

checilascialozampino
8 minuti fa, appecundria ha scritto:

Mai. Una volta miscelati i segnali non sono più discernibili

Mi domando appunto questo.

Con l'uso della AI.

Un microfono credo possa selezionare una frequenza, non un "pattern" come descritto propriamente da altri, o "timbro" come lo descrivevo io.

  • Moderatori
paolosances

@appecundria assolutamente antieconomico.

Se dovessimo dissertare di un ipotetico recupero filologico della volontà dell'esecutore,se ne valesse l'onere, avrebbe senso avventurarsi nei meandri della tecnologia spinta.

Ma ...chi è disposto a pagare per un simile impegno?

checilascialozampino

Facciamo così..

Ho il multitraccia originale di un album dei Dire Straits.

Un ottimo impianto con dei diffusori con a varie vie, con oltre al resto, due woofer da 30 cm.

 

Se dividessi basso e grancassa sui due woofer di ciascun canale, che livello di miglioramento hi-fi avrei?

Avrei un miglioramento di resa oppure no?

 

2. Se avessi un miglioramento potrei pensare di usare l'AI -o altri mezzi- per dividere in tracce un vecchio live Jazz degli anni '50 ( a titolo di esempio).

 

A questo punto avrei veramente un miglioramento?

L'AI riuscirà mai a:

-dividere i segnali

-e farlo rimanendo in ambito audiofilo?

Ovvero in modo che tale divisione non aggiunga o tolga niente ai suoni separati?

In che range tali suoni rimarrebbero all'interno di quelli originali?

Ospite
Questa discussione è chiusa.



  • Badge Recenti

    • Ottimi Contenuti
      Paky33
      Paky33 ha ottenuto un badge
      Ottimi Contenuti
    • Membro Attivo
      Oscar
      Oscar ha ottenuto un badge
      Membro Attivo
    • Badge del Vinile Verde
      jackreacher
      jackreacher ha ottenuto un badge
      Badge del Vinile Verde
    • Contenuti Utili
      Sognatore
      Sognatore ha ottenuto un badge
      Contenuti Utili
    • Membro Attivo
      godzilla
      godzilla ha ottenuto un badge
      Membro Attivo
  • Notizie

  • KnuKonceptz

    Kord Ultra Flex speakers cable

    Rame OFC 294 fili 12 AWG

    61dl-KzQaFL._SL1200_.jpg

×
×
  • Crea Nuovo...