En théorie de l'information, le théorème de Shannon-Hartley indique le débit maximal auquel l'information peut être transmise sur un canal de communication d'une bande passante spécifiée en présence de bruit. Il s'agit d'une application du théorème du codage de canal au cas archétypal du canal de communication analogique à temps continu soumis à un bruit gaussien. Le théorème établit la capacité du canal de Shannon pour un tel lien de communication, une limite sur la quantité maximale d'information sans erreur par unité de temps qui peut être transmise avec une bande passante spécifiée en présence de l'interférence du bruit, en supposant que la puissance du signal est limitée, et que le processus de bruit gaussien est caractérisé par une puissance ou une densité spectrale de puissance connue. La loi est nommée d'après Claude Shannon et Ralph Hartley.