Aquesta tesi tracta sobre la relació entre el contrast d'hipòtesis quàntiques i les desigualtats entròpiques en la teoria quàntica de la informació. A la primera part de la tesi ens centrem en el contrast d'hipòtesis. Aquí, considerem dues configuracions principals, o bé fixar els estats quàntics i optimitzar sobre les possibles mesures, o bé fixar una mesura i avaluar la seva capacitat de discriminació d'estats quàntics optimitzant sobre aquests últims. A la primera configuració, demostrem un resultat general a la taxa d'error òptima en el contrast d'hipòtesis compostes asimètriques, que porta a un Lema de Stein quàntic compost. També discutim com això dóna una interpretació operacional a diverses quantitats d'interès, com l'entropia relativa de la coherència, i com transferir aquest resultat al contrast d'hipòtesis en el règim asimptòtic. A la segona, donem la taxa d'error asimptòtica òptima en diverses configuracions, tant simètriques com asimètriques, i també discutim les propietats i alguns exemples d'aquestes taxes. A la segona part, ens centrem en les desigualtats entròpiques. Comencem amb les desigualtats de recuperabilitat, que han rebut molta atenció recentment. Com veiem, estan estretament relacionades amb la primera part de la tesi. Utilitzant les eines desenvolupades per demostrar el Lema de Stein compost, demostrem una fita inferior per a la informació mútua condicionada en termes d'una entropia relativa regularitzada que presenta un mapa de recuperació universal explícit. A continuació, mostrem dos enfocs a priori diferents per donar una interpretació operacional a l'entropia relativa de recuperació a través del contrast d'hipòtesis compostes. Després discutim i ampliem alguns contraexemples recents afirmant que l'entropia relativa de recuperació no regularitzada no és una bona fita inferior a la informació mútua quàntica condicionada. A més, aportem més contraexemples on alguns dels sistemes quàntics involucrats són, en realitat, clàssics, veient que fins i tot en aquesta configuració restringida la fita inferior no és correcta. Al final, fem servir la connexió entre la contrast d'hipòtesis i la recuperabilitat per mostrar que la regularització al nostre Lema de Stein compost és, de fet, necessària. Després ens centrem en un tipus aparentment diferent de desigualtats entrópicas, anomenades fites a la combinació d'informació, relacionades amb l'entropia condicional de la suma de variables aleatòries amb informació lateral associada. Usant una desigualtat de recuperabilitat particular, mostrem una cota inferior no trivial i, addicionalment, conjecturem cotes òptimes tant inferiors com superiors. A més, discutim les implicacions de les nostres cotes en el comportament de la longitud de bloc finita en codis polars, emprats en comunicació clàssica en canals quànitcs. Finalment, discutim les desigualtats de l'entropia de Rényi-2 per a estats Gaussians en sistemes de dimensió infinita, fent ús de la seva formulació com desigualtats log-det per trobar límits relacionats amb la recuperabilitat en diverses quantitats d'interès. Això últim ho apliquem a mesures gaussianes d'entrellaçament i steerability, demostrant així la seva monogàmia entre altres característiques., Esta tesis trata sobre la relación entre el contraste de hipótesis cuánticas y las desigualdades entrópicas en la teoría cuántica de la información. En la primera parte de la tesis nos centramos en el contraste de hipótesis. Aquí, consideramos dos configuraciones principales, o bien fijar los estados cuánticos y optimizar sobre las posibles medidas, o bien fijar una medida y evaluar su capacidad de discriminación de estados cuánticos optimizando sobre estos últimos. En la primera configuración, demostramos un resultado general en la tasa de error óptima en el contraste de hipótesis compuestas asimétricas, que lleva a un Lema de Stein cuántico compuesto. También discutimos como esto da una interpretación operacional a varias cantidades de interés, como la entropía relativa de la coherencia, y cómo transferir este resultado al contraste de hipótesis en el régimen asintotico. En la segunda, damos la tasa de error asintótica óptima en varias configuraciones, tanto simétricas como asimétricas, y también discutimos las propiedades y algunos ejemplos de estas tasas. En la segunda parte, nos centramos en las desigualdades entrópicas. Empezamos con las desigualdades de recuperabilidad, que han recibido mucha atención recientemente. Como vemos, están estrechamente relacionadas con la primera parte de la tesis. Utilizando las herramientas desarrolladas para demostrar el Lema de Stein compuesto, demostramos un límite inferior para la información mutua condicionada en términos de una entropía relativa regularizada que presenta un mapa de recuperación universal explícito. A continuación, mostramos dos enfoques a priori diferentes para dar una interpretación operacional a la entropía relativa de recuperación a través del contraste de hipótesis compuestas. Luego discutimos y ampliamos algunos contraejemplos recientes afirmando que la entropía relativa de recuperación no regularizada no es una cota inferior a la información mutua cuántica condicionada. Además, aportamos más contraejemplos donde algunos de los sistemas cuánticos involucrados son, en realidad, clásicos, viendo que incluso en esta configuración restringida la cota inferior no es correcta. En última instancia, empleamos la conexión entre la contraste de hipótesis y la recuperabilidad para mostrar que la regularización en nuestro Lema de Stein compuesto es, de hecho, necesaria. Luego nos centramos en un tipo aparentemente diferente de desigualdades entrópicas, llamadas cotas a la combinación de información, relacionadas con la entropía condicional de la suma de variables aleatorias con información lateral asociada. Usando una desigualdad de recuperabilidad particular, mostramos una cota inferior no trivial y, adicionalmente, conjeturamos cotas óptimas tanto inferiores como superiores. Además, discutimos las implicaciones de nuestras cotas en el comportamiento de la longitud de bloque finita en códigos polares, utilizados en la comunicación clásica sobre canales cuánticos. Finalmente, discutimos las desigualdades de la entropía de Rényi-2 para estados Gaussianos en sistemas de dimension infinita, haciendo uso de su formulación como desigualdades log-det para encontrar límites relacionados con la recuperabilidad en varias cantidades de interés. Esto último lo aplicamos a medidas Gaussianas de entrelazamiento y steerability, lo que demuestra su monogamia entre otras características., This thesis addresses the interplay between asymptotic hypothesis testing and entropy inequalities in quantum information theory. In the first part of the thesis we focus on hypothesis testing. Here, we consider two main settings; one can either fix quantum states while optimizing over possible measurements or fix a measurement and evaluate its capability to discriminate quantum states by optimizing over such states. With regard to the former setting, we prove a general result on the optimal error rate in asymmetric composite hypothesis testing, which leads to a composite quantum Stein's Lemma. We also discuss how this gives an operational interpretation to several quantities of interest, such as the relative entropy of coherence, and how to transfer the result to symmetric hypothesis testing. For the latter, we give the optimal asymptotic error rates in several symmetric and asymmetric settings, as well as discuss properties and examples of these rates. In the second part, the focus is shifted to entropy inequalities. We start with recoverability inequalities, which have gained much attention recently. As it turns out, they are closely related to the first part of the thesis. Using tools which we developed to prove the composite Stein's Lemma, we further prove a strengthened lower bound on the conditional quantum mutual information in terms of a regularized relative entropy featuring an explicit and universal recovery map. Next, we show two a priori different approaches to give an operational interpretation to the relative entropy of recovery via composite hypothesis testing. Then, we discuss and extend some recent counterexamples, which show that the non-regularized relative entropy of recovery is not a lower bound on the conditional quantum mutual information; additionally we provide more counterexamples where some of the involved systems are classical, showing that also in this restricted setting the same bound does not hold. Ultimately we employ the connection between hypothesis testing and recoverability to show that the regularization in our composite Stein's Lemma is indeed needed. We then turn to a seemingly different type of entropy inequalities called bounds on information combining, which are concerned with the conditional entropy of the sum of random variables with associated side information. Using a particular recoverability inequality, we show a non-trivial lower bound and additionally conjecture optimal lower and upper bounds. Furthermore, we discuss implications of our bounds to the finite blocklength behavior of Polar codes to attain optimal communication capacities in quantum channels. Finally, we discuss RΘnyi-2 entropy inequalities for Gaussian states on infinite dimensional systems, by exploiting their formulation as log-det inequalities to find recoverability related bounds on several interesting quantities. We apply this to Gaussian steerability and entanglement measures, proving their monogamy and several other features.