Med utviklingen innen autonom teknologi de siste årene har autonomi nå entret racingscenen. Som en del av konkurransen Formula Student, konkurrerer lag mot hverandre med førerløse racerbiler. Racerbilene kjører helt autonomt på baner definert av kjegler, der målet er at bilen skal manøvrere seg så raskt som mulig gjennom racerbanen. Dette stiller høye krav til deteksjonssystemet, som må lokalisere og klassifisere kjegler nøyaktig, i sanntid. Lidarer for autonome formål antas å være egnet for denne type oppgaver, da de gir nøyaktig posisjonsdata, sammen med intensitetsdata som potensielt kan brukes til klassifisering. I denne masteroppgaven implementeres og testes et rammeverk for kjegledeteksjon, basert på lidardata. Det består av et lokaliseringssystem som bruker Euklidisk klynging i tillegg til filtrering, for å finne kjeglekandidater. Ettersom metoden er utsatt for falske positiver, blir kjeglekandidatene 2D-projisert til 28 × 28 bilder, som klassifiseres av et CNN. Dette fanger formen til en kjegle, som antas å filtrere ut falske positiver. Ved å introdusere intensitet til de 2D-projiserte bildene, blir det repeterbare mønsteret på tvers av høyden til en kjegle inkludert. Dette lar CNN klassifisere farge i tillegg til form. Videre introduseres et rammeverk for lidar-lidar-fusjon. Dette består av kalibrering og synkronisering, hvor ego-bevegelse-kompensasjon er en forutsetning. Resultatene viser at CNN kan forbedre presisjon og gjøre fargegjenkjenning med en overordnet nøyaktighet pa 98.9% og 97.3% på testdata, for hendholdsvis formklassifisering og farge- og formklassifisering. Basert på stasjonære scenarier, klarer lokaliseringssytemet å finne kjegler opp til minst 28 meter. Klassifikatorene klarer å bestemme kandidater på 15m og 10m, basert på henholdvis formklassifisering, og form- og fargeklassifisering. Det ble funnet at kombinert form- og fargeklassifikator ikke er så bra som formklassifikatoren for å filtrere ut falske positiver. Selv om resultatene er lovende, er det nødvendig med mer treningsdata og testing på realistiske baner. Lidar-lidar-fusjonen hadde en kalibreringsfeil, som gjorde at resultatene relatert til fusjonslokalisering ble korrupte. Følgelig er rekalibrering nødvendig. Synkronisering og ego-bevegelse-kompensasjon bør videre testes og verifiseres i høyhastighetsscenarier. With the development of autonomous technology in recent years, autonomy has now entered the racing scene. As part of the Formula Student competition, teams compete against each other with driverless racing cars. The racing cars runs completely autonomously on tracks outlined by cones, where the goal is for the vehicle to maneuver as fast as possible through the racetrack. This sets high expectations for the detection system, which must locate and classify cones accurately in real-time. Lidars for autonomous purposes are thought to be suitable for this task, as they give accurate positional data, along with intensity data that potentially can be used for classification. In this thesis, a cone detection framework based on lidars is implemented and tested. It consists of a localization system using Euclidean clustering alongside filtering to find cone candidates. As the method is prone to false positives, the cone candidates are 2D projected to 28 × 28 images, which is classified by a CNN. This captures the shape of a cone, which is thought to filter out false positives. By introducing intensity to the 2D projected images, the repeatable pattern across the height of a cone is included. This lets the CNN classify color in addition with shape. Furthermore, a framework for lidar-lidar fusion is introduced. This consists of calibration and synchronization, with the prerequisite of ego-motion compensation. The results show that CNNs can improve precision and do color recognition with overall accuracy of 98.9% and 97.3% on test data, for the shape classification and color and shape classification, respectively. Based on stationary scenarios, the localization system manages to find cones up to at least 28m. The classifiers manage to classify candidates at 15m and 10m, based on shape classification, and shape and color classification, respectively. It was found that the combined shape and color classifier is not as good as the shape classifier to filter out false positives. Although the results are promising, more training data and tests on realistic tracks is necessary. The lidar-lidar fusion had a calibration error, which corrupted the results related to fusion localization. Consequently, re-calibration is necessary. Synchronization and ego-motion compensation should be tested and verified in high speed scenarios.