5 results on '"Haitham Zaraket"'
Search Results
2. Design and Optimization of All-Dielectric Fluorescence Enhancing Metasurfaces: Towards Advanced Metasurface-Assisted Optrodes
- Author
-
Hiba Alhalaby, Maria Principe, Haitham Zaraket, Patrizio Vaiano, Anna Aliberti, Giuseppe Quero, Alessio Crescitelli, Valentina Di Meo, Emanuela Esposito, Marco Consales, and Andrea Cusano
- Subjects
Polymers ,Clinical Biochemistry ,General Medicine ,all-dielectric metasurfaces ,fluorescence enhancement ,lab-on-fiber ,labelled biosensing ,Fluorescence ,Optical Fibers - Abstract
The need for miniaturized biological sensors which can be easily integrated into medical needles and catheters for in vivo liquid biopsies with ever-increasing performances has stimulated the interest of researchers in lab-on-fiber (LOF) technology. LOF devices arise from the integration of functional materials at the nanoscale on the tip of optical fibers, thus endowing a simple optical fiber with advanced functionalities and enabling the realization of high-performance LOF biological sensors. Consequently, in 2017, we demonstrated the first optical fiber meta-tip (OFMT), consisting of the integration of plasmonic metasurfaces (MSs) on the optical fiber end-face which represented a major breakthrough along the LOF technology roadmap. Successively, we demonstrated that label-free biological sensors based on the plasmonic OFMT are able to largely overwhelm the performance of a standard plasmonic LOF sensor, in view of the extraordinary light manipulation capabilities of plasmonic array exploiting phase gradients. To further improve the overall sensitivity, a labelled sensing strategy is here suggested. To this end, we envision the possibility to realize a novel class of labelled LOF optrodes based on OFMT, where an all-dielectric MS, designed to enhance the fluorescence emission by a labelled target molecule, is integrated on the end-face of a multimode fiber (MMF). We present a numerical environment to compute the fluorescence enhancement factor collected by the MMF, when on its tip a Silicon MS is laid, consisting of an array of cylindrical nanoantennas, or of dimers or trimers of cylindrical nanoantennas. According to the numerical results, a suitable design of the dielectric MS allows for a fluorescence enhancement up to three orders of magnitudes. Moreover, a feasibility study is carried out to verify the possibility to fabricate the designed MSs on the termination of multimode optical fibers using electron beam lithography followed by reactive ion etching. Finally, we analyze a real application scenario in the field of biosensing and evaluate the degradation in the fluorescence enhancement performances, taking into account the experimental conditions. The present work, thus, provides the main guidelines for the design and development of advanced LOF devices based on the fluorescence enhancement for labelled biosensing applications.
- Published
- 2022
- Full Text
- View/download PDF
3. Toward the end-to-end optimization of particle physics instruments with differentiable programming
- Author
-
Tommaso Dorigo, Andrea Giammanco, Pietro Vischia, Max Aehle, Mateusz Bawaj, Alexey Boldyrev, Pablo de Castro Manzano, Denis Derkach, Julien Donini, Auralee Edelen, Federica Fanzago, Nicolas R. Gauger, Christian Glaser, Atılım G. Baydin, Lukas Heinrich, Ralf Keidel, Jan Kieseler, Claudius Krause, Maxime Lagrange, Max Lamparth, Lukas Layer, Gernot Maier, Federico Nardi, Helge E.S. Pettersen, Alberto Ramos, Fedor Ratnikov, Dieter Röhrich, Roberto Ruiz de Austri, Pablo Martínez Ruiz del Árbol, Oleg Savchenko, Nathan Simpson, Giles C. Strong, Angela Taliercio, Mia Tosi, Andrey Ustyuzhanin, and Haitham Zaraket
- Subjects
Optimization ,Machine learning ,Nuclear physics ,Particle physics ,General Physics and Astronomy ,Particle detectors ,Differentiable programming ,Detectors and Experimental Techniques ,Astrophysics ,physics.ins-det - Abstract
The full optimization of the design and operation of instruments whose functioning relies on the interaction of radiation with matter is a super-human task, due to the large dimensionality of the space of possible choices for geometry, detection technology, materials, data-acquisition, and information-extraction techniques, and the interdependence of the related parameters. On the other hand, massive potential gains in performance over standard, “experience-driven” layouts are in principle within our reach if an objective function fully aligned with the final goals of the instrument is maximized through a systematic search of the configuration space. The stochastic nature of the involved quantum processes make the modeling of these systems an intractable problem from a classical statistics point of view, yet the construction of a fully differentiable pipeline and the use of deep learning techniques may allow the simultaneous optimization of all design parameters. In this white paper, we lay down our plans for the design of a modular and versatile modeling tool for the end-to-end optimization of complex instruments for particle physics experiments as well as industrial and medical applications that share the detection of radiation as their basic ingredient. We consider a selected set of use cases to highlight the specific needs of different applications. The full optimization of the design and operation of instruments whose functioning relies on the interaction of radiation with matter is a super-human task, given the large dimensionality of the space of possible choices for geometry, detection technology, materials, data-acquisition, and information-extraction techniques, and the interdependence of the related parameters. On the other hand, massive potential gains in performance over standard, "experience-driven" layouts are in principle within our reach if an objective function fully aligned with the final goals of the instrument is maximized by means of a systematic search of the configuration space. The stochastic nature of the involved quantum processes make the modeling of these systems an intractable problem from a classical statistics point of view, yet the construction of a fully differentiable pipeline and the use of deep learning techniques may allow the simultaneous optimization of all design parameters. In this document we lay down our plans for the design of a modular and versatile modeling tool for the end-to-end optimization of complex instruments for particle physics experiments as well as industrial and medical applications that share the detection of radiation as their basic ingredient. We consider a selected set of use cases to highlight the specific needs of different applications.
- Published
- 2022
4. Precise predictions for top-quark observables at the LHC in the presence of Z' and W' bosons
- Author
-
Altakach, Mohammad Mahdi, STAR, ABES, Laboratoire de Physique Subatomique et de Cosmologie (LPSC), Institut National de Physique Nucléaire et de Physique des Particules du CNRS (IN2P3)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA), Université Grenoble Alpes [2020-....], Ingo Schienbein, Haitham Zaraket, and Tomas Jezo
- Subjects
[PHYS.HPHE] Physics [physics]/High Energy Physics - Phenomenology [hep-ph] ,[PHYS.HPHE]Physics [physics]/High Energy Physics - Phenomenology [hep-ph] ,Nlo qcd ,Bsm ,Lhc ,Top quark ,Z'. w' ,Quark top - Abstract
The Standard Model (SM) of particle physics, based on the SU(3)_C × SU(2)_L × U(1)_Y gauge group, is an extremely successful theory that accounts for a wide range of high energy experiments at both the intensity and energy frontiers. Nevertheless it is widely believed to be incomplete, and manifestations of new physics are awaited to show up around the TeV scale. The unification of the SM gauge group in a larger, simple group, is theoretically very attractive. In this view, the SM is seen as an effective model valid at low energies. Thus, given the fact that the possible unification groups have a rank larger than the SM, additional subgroups like a U(1) or a second SU(2) may appear at intermediate stage when the unification group is broken down to the SM group. Interestingly, a new U(1) group factor predicts one additional gauge boson denoted Z′ in the literature. On the other hand, since SU(2) is a non-abelian group with three generators, an additional one leads to three gauge bosons of which one is neutral and two are charged and denoted W′± . In this manuscript, we extend and improve upon a previous calculation of electroweak top-quark pair hadroproduction in extensions of the SM with extra heavy neutral and charged spin-1 resonances. In particular, we allow for flavour-non-diagonal Z' couplings and take into account non-resonant production in the SM and beyond including the contributions with t-channel W and W′ bosons. All amplitudes are generated using the Recola2 package. We include NLO QCD corrections and consistently match to parton showers with the POWHEG method fully taking into account the interference effects between SM and new physics amplitudes. We consider the Sequential Standard Model, the lepto-phobic Topcolour model, the G(221) class of models, as well as the Third Family Hypercharge Model featuring non-flavour-diagonal Z′ couplings which has been proposed recently to explain the anomalies in B decays. We present numerical results for top-pair cross sections at hadron colliders with a centre-of-mass energy up to 100 TeV. Subsequently we link our calculation to Contur (Constraints On New Theories Using Rivet), to obtain exclusion limits on the parameter space of models with extra heavy gauge bosons in the top-pair channel using real particle level data from the Large Hadron Collider. In the last chapter we give an outlook on the calculation of QCD corrections to the production of the top bottom final state in the presence of W' and Z' bosons., Basé sur le groupe de jauge SU (3) _C × SU (2) _L × U (1) _Y, le modèle standard (MS) de la physique des particules est une théorie fructueuse qui permet d’expliquer un grand nombre d'expériences jusqu’aux frontières d'intensités et d'énergies. Néanmoins, il est considéré comme incomplet et des manifestations de nouvelle physique sont attendues autour de l'échelle du TeV. L'unification du groupe de jauge du MS dans un groupe plus large et plus simple est théoriquement très intéressante. Dans cette optique, le MS est considéré comme une manifestation à basse énergie d’une théorie plus fondamentale.Ainsi, étant donné que les groupes d'unification possibles ont un rang supérieur à celui du MS, des sous-groupes supplémentaires tel que U(1) ou un deuxième groupe SU(2) peuvent entrer en jeu à un stade intermédiaire lors de la brisure de symétrie du groupe d'unification en groupe du MS. Il est intéressant de noter qu’un nouveau groupe facteur U(1) permet de prédire l’existence d’un boson de jauge supplémentaire noté Z' dans la littérature. D’autre part, SU(2) étant un groupe non-abélien ayant trois générateurs, il introduit alors trois bosons de jauge supplémentaires dont un est neutre et deux sont chargés et notés W'±.Dans ce manuscrit, nous étendons et améliorons un précédent calcul d'hadroproduction électrofaible de paires de quarks top dans des extensions du MS avec des nouvelles résonances lourdes de spin-1, neutres et chargées. En particulier, nous autorisons les couplages non diagonaux du boson Z' dans la base des saveurs et prenons en compte la production non résonnante dans le MS et au-delà, y compris les contributions des bosons W et W' dans le canal t. De plus, nous incluons les corrections QCD au deuxième ordre de la théorie des perturbations et les adaptons systématiquement aux cascades partoniques à travers la méthode POWHEG en tenant compte des effets d'interférences entre les amplitudes du MS et celles de la nouvelle physique. Nous considérons le modèle standard séquentiel, le modèle leptophobique Topcolour, la classe de modèles G (221), ainsi que le modèle d'hypercharge de la troisième famille avec des couplages Z' non diagonaux dans l’espace des saveurs qui a été proposé récemment pour expliquer les anomalies dans les désintégrations de mésons B. Nous présentons des résultats numériques pour les sections efficaces des paires de quark top dans des collisionneurs de hadrons avec une énergie dans le centre de masse allant jusqu'à 100 TeV. Par la suite, nous lions notre calcul à Contur (Constraints On New Theories Using Rivet), pour obtenir des limites d'exclusions sur l'espace des paramètres des différents modèles prédisant des bosons lourds supplémentaires pour le canal de production de paires de quarks top, en utilisant les données du grand collisionneur de hadrons (LHC). Dans le dernier chapitre, nous donnons une perspective sur le calcul des corrections QCD pour la production de l'état final top-bottom en présence de bosons W 'et Z'.
- Published
- 2021
5. Modélisation et mesure des facteurs de modification nucléaire des jets issus de quarks beaux dans les collisions p-Pb à 5.02 TeV avec l'expérience ALICE auprès du LHC
- Author
-
Hassan, Hadi, Laboratoire de Physique Subatomique et de Cosmologie (LPSC), Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-Institut Polytechnique de Grenoble - Grenoble Institute of Technology-Institut National de Physique Nucléaire et de Physique des Particules du CNRS (IN2P3)-Université Joseph Fourier - Grenoble 1 (UJF)-Centre National de la Recherche Scientifique (CNRS), Université Grenoble Alpes, Université Libanaise, Ingo Schienbein, Haitham Zaraket, and STAR, ABES
- Subjects
B-Jet Tagging ,ALICE detector ,[PHYS.ASTR.HE]Physics [physics]/Astrophysics [astro-ph]/High Energy Astrophysical Phenomena [astro-ph.HE] ,Jet Quenching ,Cross section ,Nuclear modification factor ,Étiquetage des b-Jets ,Détecteur ALICE ,Section efficace ,Étouffement des jets ,Facteur de modification nucléaire ,[PHYS.ASTR.HE] Physics [physics]/Astrophysics [astro-ph]/High Energy Astrophysical Phenomena [astro-ph.HE] - Abstract
In Pb-Pb collisions at the LHC, a hot and dense medium of deconfined quarks and gluons is formed, the so-called Quark-Gluon Plasma (QGP). The QGP is conjectured to be the state of matter of the early Universe up to few microseconds after the Big Bang and may still exist in the core of neutron stars. One of the most striking signatures of the QGP formation in heavy-ion collisions is the suppression of jet production. This phenomenon, called jet quenching, is ascribed to the energy lost by the initial parton while traveling through the QGP medium. In the last two decades, many theoretical developments of the theory of jet quenching have been formulated within pQCD.The main energy loss mechanisms proposed in the literature are attributed to radiative and collisional processes. Another kind of energy loss is developed in this work comprises a background field induced radiative energy loss which besides that besides scattering effects. Under the suggested model, a fast parton propagating through the medium will feel the effect of the color magnetic and the color electric fields while undergoing multiple scatterings with the particles in the medium.Besides, theoretical models predict that energy loss depends on the color charge and mass of the hard-scattered parton traversing the medium. Such mass dependence can be studied by measuring the production of hadrons and jets containing heavy-quarks in pp, p-Pb and Pb-Pb collisions at the LHC.In this thesis report, a new model for the medium is presented, which is described as a collection of static colored scattering centers in the presence of a chromomagnetic field, together with the description of the related energy loss mechanism. The ALICE measurement of b-jet production in pp and p-Pb collisions at √s_ℕ=5.02 TeV using an impact parameter based tagger is also presented., Dans les collisions Pb-Pb au LHC, un milieu chaud et dense formé de quarks et de gluons déconfinés est formé, communément appelé Plasma de Quarks et de Gluons (PQG). Le PQG est l’état hypothétique de l’univers primordial quelques microsecondes après le Big Bang et constituerait encore à ce jour le cœur des étoiles à neutrons. Une des signatures les plus frappantes de l’occurrence du PQG lors de collisions d’ions lourds est la suppression des jets. Ce phénomène appelé étouffement des jets est attribué au mécanisme de perte d’énergie du parton à l’origine du jet lors de son trajet au travers du milieu formé par le PQG.Les deux dernières décennies ont vu l’émergence d’une formulation théorique du phénomène d’étouffement des jets dans le cadre de la Chromo Dynamique Quantique. La perte d’énergie étant le plus fréquemment attribuée dans la littérature à des processus radiatifs et collisionnels. Un nouveau mécanisme de perte d’énergie à été étudié dans ce travail de thèse qui outre la description des effets de diffusions multiples, met en œuvre une perte d’énergie radiative induite par un champ chromomagnétique, de sorte qu’un parton rapide se propageant au travers du milieu ressentira l’effet des champs magnétique et de couleur tout en subissant des diffusions multiples avec les particules du milieu. De plus, les modèles théoriques prédisent une dépendance de la perte d’énergie avec la charge de couleur et la masse du parton issu d’une diffusion à grand transfert d’impulsion lors de sa traversée du milieu. Une telle dépendance en masse peut être étudiée en mesurant la production de hadrons et de jets contenant des quarks lourds dans les collisions pp, p-Pb et Pb-Pb au LHC. Dans cette thèse, un modèle original du milieu est présenté, décrit comme un ensemble de centres de diffusion statiques colorés en présence d’un champ chromomagnétique, de même qu’une description du mécanisme de perte d’énergie associé. Enfin, la mesure de la production de jets issus de quarks beaux avec le détecteur ALICE dans les colllsions pp et p-Pb à l’énergie de 5.02 TeV au LHC à l’aide d’une méthode d’étiquetage utilisant le paramètre d’impact des traces est présenté dans cette thèse.
- Published
- 2019
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.