Αυτόματη αξιολόγηση πηγαίου κώδικα με χρήση μεγάλων γλωσσικών μοντέλων.

dc.contributor.advisorΒασιλειάδης, Γεώργιοςel
dc.contributor.advisorVasileiadis, Georgiosen
dc.contributor.authorΚαραμπατζάκης, Εμμανουήλel
dc.contributor.authorKarampatzakis, Emmanouilen
dc.date.accessioned2025-11-24T09:03:50Z
dc.date.available2025-11-24T09:03:50Z
dc.date.issued2025-11-24
dc.description.abstractΗ ταχεία πρόοδος των Μεγάλων Γλωσσικών Μοντέλων (LLMs) έχει δημιουργήσει νέους δρόμους στην κατανόηση και ανάλυση του πηγαίου κώδικα προγραμμάτων επιτρέποντας την ανάπτυξη ευφυών εργαλείων αξιολόγησης και υποστήριξης των προγραμματιστών. Στο πλαίσιο αυτό, η συγκεκριμένη εργασία υλοποίησε ένα ολοκληρωμένο σύστημα αυτόματης αξιολόγησης και ανασκόπησης πηγαίου κώδικα, βασισμένο στο μοντέλο Code Llama και στην τοπική εκτέλεση LLMs μέσω της πλατφόρμας Ollama. Το σύστημα είναι σε θέση να αναλύει αρχεία κώδικα, να εντοπίζει λογικά και δομικά προβλήματα, να προτείνει βελτιώσεις και να αποδίδει βαθμολογία με βάση κριτήρια αναγνωσιμότητας, ποιότητας και ορθότητας. Υποστηρίζει τρεις μεθοδολογίες αξιολόγησης (General, Loose και Strict), προσφέροντας τόσο ποιοτικό σχολιασμό όσο και ποσοτική βαθμολόγηση. Τα πειραματικά αποτελέσματα έδειξαν ότι τα LLMs, και ειδικότερα το Code Llama, μπορούν να λειτουργήσουν ως ένας αποτελεσματικός αυτόματος κριτής κώδικα, παρέχοντας χρήσιμη ανατροφοδότηση τόσο σε εκπαιδευόμενους όσο και σε επαγγελματίες. Επιπλέον, η εργασία αποδεικνύει ότι τα LLMs μπορούν να αποτελέσουν τη βάση για αξιόπιστα και επεκτάσιμα συστήματα αυτόματης αξιολόγησης κώδικα, ανοίγοντας τον δρόμο για περαιτέρω έρευνα σε συνδυαστικές προσεγγίσεις με στατικές και δυναμικές τεχνικές ανάλυσηςel
dc.description.abstractThe rapid advancement of Large Language Models (LLMs) has opened new pathways in source code understanding and analysis, enabling the development of intelligent tools for evaluation and developer assistance. In this context, the present thesis implements a complete automatic source code evaluation and review system (code reviewer system), based on Code Llama and the local execution of LLMs through the Ollama platform. The system is capable of analyzing programming files, identifying logical and structural issues, proposing improvements, and assigning a score based on readability, quality, and implementation correctness. It supports three evaluation modes (General, Loose, and Strict), offering both qualitative feedback and quantitative scoring. The experimental results showed that LLMs, and in particular Code Llama, can serve as an effective automated code evaluator, providing valuable feedback to both learners and professionals. Moreover, the findings of this thesis show that LLMs can serve as a solid foundation for reliable and extensible automated code evaluation systems, paving the way for further research that combines LLM-based reasoning with static and dynamic analysis techniquesen
dc.identifier.urihttps://apothesis.hmu.gr/handle/123456789/11493
dc.language.isoel
dc.publisherΕΛΜΕΠΑ, Σχολή Επιστημών Διοίκησης και Οικονομίας (ΣΕΔΟ), Τμήμα Διοικητικής Επιστήμης και Τεχνολογίας
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United Statesen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/
dc.subjectcode review
dc.subjectcode lama
dc.subjectLLMs
dc.subjectαυτόματη αξιολόγηση κώδικα
dc.subjectποιότητα λογισμικού
dc.subjectlarge language models
dc.subjectcode llama
dc.subjectautomated code evaluation
dc.subjectsoftware quality
dc.titleΑυτόματη αξιολόγηση πηγαίου κώδικα με χρήση μεγάλων γλωσσικών μοντέλων.el
dc.titleAutomatic source code evaluation using large language models.en
dc.typeΠτυχιακή Εργασία
heal.academicPublisherIDΕΛΜΕΠΑ Ελληνικό Μεσογειακό Πανεπιστήμιο
Αρχεία
Πρωτότυπος φάκελος/πακέτο
Τώρα δείχνει 1 - 1 of 1
Φόρτωση...
Μικρογραφία εικόνας
Ονομα:
KarampatzakisEmmanouil2025.pdf
Μέγεθος:
528.95 KB
Μορφότυπο:
Adobe Portable Document Format
Φάκελος/Πακέτο αδειών
Τώρα δείχνει 1 - 1 of 1
Δεν υπάρχει διαθέσιμη μικρογραφία
Ονομα:
license.txt
Μέγεθος:
2.17 KB
Μορφότυπο:
Item-specific license agreed upon to submission
Περιγραφή: