- Indico style
- Indico style - inline minutes
- Indico style - numbered
- Indico style - numbered + minutes
- Indico Weeks View
The International Open Source Conference is organized in our country to pioneer the development of open-source software, promote its usage, and increase awareness of the philosophy of free software. The conference, which will be held for the first time this year, will feature presentations on using open-source and free software in various disciplines, academic and industrial applications, and efforts to incorporate them into educational curricula.
UAKK 2024, hosted by Istanbul Sabahattin Zaim University, will take place face-to-face and virtually on December 26-28 2024, and will contribute to disseminating the philosophy of open source and free software in our country.
As the organizing committee of UAKK 2024, we invite you to contribute to the world of open-source and free software, where knowledge is shared, produced, developed, and disseminated.
Welcome Talk by The Conference Chair
Abstract:
This keynote focuses on the transformative impact of open-source tools in medical imaging, beginning with their role in enhancing cybersecurity and data protection practices crucial for safeguarding sensitive medical information. Emphasizing sustainability, the presentation highlights how open-source platforms contribute to creating accessible, sustainable healthcare solutions, democratizing advanced imaging technology worldwide. The keynote further explores the integration of artificial intelligence (AI) and machine learning (ML) within open-source frameworks to enable efficient and accurate diagnostic processes. An overview of popular open-source visualization tools showcases their application across radiology, pathology, and neuroimaging. The keynote also examines open-source platforms like 3D Slicer and OHIF Viewer, which facilitate hands-on medical imaging training and bolster e-learning resources. Concluding with future trends, the keynote advocates for a continued open-source paradigm in medical imaging, promising an era of greater accessibility, innovation, and collaborative advancement in healthcare technology.
Bio:
Prof. Dr. Robertas Damaševičius is a distinguished professor with extensive expertise in computer science, artificial intelligence, and software engineering. His research interests encompass a broad range, including machine learning, deep learning, medical imaging and computer vision. He has authored numerous high-impact publications and led interdisciplinary research projects. His work focuses on innovative AI applications across diverse fields, including healthcare and environmental science. Prof. Damaševičius is known for his multidisciplinary approach, fostering collaborations that enhance software reliability, optimize AI-driven solutions, and advance data mining methodologies in scientific and industrial contexts. His contributions continue to drive advancements in technology for societal benefit.
In Person presentations in English
In this paper, we study solving of linear algebraic equations with the form of $Ax=b$ in a distributed manner by using distributed memory programming. We consider open-source message passing interface (MPI) approach to model our simulations. Also we review the sequential programming approach and make comparison with MPI on the performances under different network topologies.
Open source communities play an essential role in fostering innovation and collaborative development. They operate in knowledge-based ecosystems characterized by transparency, inclusivity and a shared purpose. However, open source communities are often faced with challenges because of inefficient communication, insufficient knowledge sharing and poor requirements elicitation, management, prioritization and traceability. In this regard, our study proposes a business analysis model that is designed to address these challenges and to empower open source communities to succeed in greater collaboration and innovation as a result.
Our proposed model aims to leverage key knowledge areas, tasks and elements of business analysis, aligned with the foundational values of open source, which are upstream first, community, and freedom. It emphasizes the components of (a) stakeholder-centric collaboration (b) integrated knowledge management (c) transparent decision-making (d) freedom, licensing compliance and (e) iterative innovation and feedback loops.
Structured stakeholder engagement is a key component of the model that ensures alignment with community objectives by engaging contributors, maintainers, and users in processes of decision-making. Business analysis knowledge areas take role in facilitating project planning and monitoring, define approaches and milestones, and monitor progress and performance to streamline efforts from community.
Integrated knowledge management is enabled by centralized repositories for documentation that makes the reuse of knowledge assets easier, making onboarding more efficient and accessible for prospective contributors. Business analysis techniques like traceability matrices and prioritization frameworks make sure contributions align with those of larger community goals.
Transparent decision-making is enabled by governance frameworks that provide transparency in prioritizing projects and requirements, enabling dealing with change requests, facilitating fair-share participation and advocating for trust among stakeholders. Business analysis tools and techniques act as facilitators, bridging gaps between developers, users and various stakeholders to ensure alignment with the vision of the community.
Freedom and licensing compliance is ensured by business analysis by meeting adherence to open source principles, including the initiatives to use, study, modify, and distribute product or software. By guiding communities in interpreting and complying with licensing requirements, business analysis help establish contributor guidelines and codes of conduct.
Iterative innovation and feedback loops are important as adaptive frameworks as agile-inspired approaches improve responsiveness to user needs and community feedback, facilitating issue resolution and therefore enabling innovation. Regular feedback loops facilitate continuous improvement and adaptability within open source initiatives.
This model offers significant contributions to both literature and practitioners by bridging the gap between business analysis knowledge area frameworks and the ecosystem mindset of the open source. Unlike models proposed earlier, it integrates structured techniques such as stakeholder mapping, documentation frameworks, and traceability practices into the open source context, addressing the critical challenges of fragmentation and inefficiency.
The proposed model can have broad applications across industries such as software development, telecommunications, and in any branches of various sectors where open source collaboration drives advancements. By advocating shared vision, operational clarity and fair engagement, this approach empowers communities to achieve scalable, innovative solutions while preserving the principles of openness and inclusivity.
In this paper, we study on the optimal scheduling problem of the traffic lights on a map by utilizing the number of vehicles that use predefined routes. This paper considers modeling an optimization problem to minimize the number of vehicles on the map. We present the analytical solution of the optimization problem and the numerical solution approach by using an Open-Source library CVX implemented in Matlab. Also, we discuss the applications of our approach.
Face detection is a crucial task in computer vision, with applications ranging from security systems to human-computer interaction. In this study, we evaluate the performance of three face detection algorithms: Haar Cascade, Histogram of Oriented Gradients (HOG), and Multi-task Cascaded Convolutional Networks (MTCNN). The experiments are conducted using the Labeled Faces in the Wild (LFW) dataset to ensure a robust evaluation. Our results reveal that MTCNN outperforms the other methods, achieving a detection accuracy of 90%, while HOG demonstrates the lowest performance among the tested algorithms. These findings highlight the effectiveness of deep learning-based approaches like MTCNN for accurate face detection in challenging datasets.
In Person presentations in Turkish
Bu çalışma, endüstriyel üretim hatlarında yaygın olarak kullanılan eski nesil kipmanların Endüstri 4.0 standartlarına uyumlu hale getirilmesi için yenilikçi bir donanım çözümü sunmaktadır. Geliştirilen çok fonksiyonlu IoT dönüşüm kartı, özellikle hassas montaj işlemlerinde kullanılan el aletlerinin dijital dönüşümünü hedeflemektedir. Çalışmanın özgün değeri, Hall Effect sensörleri ve yapay sinir ağları teknolojisinin kombinasyonu ile geleneksel tork sensörlerine alternatif, düşük maliyetli bir çözüm sunmasıdır. Tasarlanan elektronik kart, ARM tabanlı STM32F103C8T6 işlemci ve ESP32 kablosuz haberleşme modülü kullanılarak gerçekleştirilmiş olup, WI-FI protokolü üzerinden veri iletimi sağlamaktadır. Sistemin temel yenilikleri arasında Hall Effect sensörleri ile tork ölçümü, MPU9250 9 eksen IMU sensörü ile açısal pozisyon kontrolü ve yapay sinir ağları ile gelişmiş veri analizi bulunmaktadır. Altium Designer programında tasarlanan çift katmanlı PCB (Printed Circuit Board), prototip üretimi sonrasında Multisim programı ile kapsamlı devre analizlerine tabi tutulmuştur. Test sonuçları, sistemin endüstriyel ortam gereksinimlerini karşıladığını ve özellikle güç katı performansı, gürültü karakterizasyonu ve termal dayanım açısından başarılı olduğunu göstermiştir. Geliştirilen çözüm, bakım personeli tarafından minimum teknik müdahale ile montaj ve devreye alma imkanı sunan modüler bir yapıya sahiptir. Bu çalışma, endüstriyel ekipmanların düşük maliyetli dijital dönüşümü için yeni bir metodoloji önermekte ve Endüstri 4.0 entegrasyonunda pratik bir çözüm sunmaktadır.
Blok zincir, iş ve endüstri dünyası için yeni ve gelişmiş özellikler sunarken aynı zamanda çeşitli endüstrilerdeki sorunları çözme yetenekleri nedeniyle son zamanlarda büyük ilgi görmektedir. Blok zincir kullanımı, verimlilik, güvenlik, ve izlenebilirliği arttırıp aynı zamanda da maliyetleri düşürerek birçok endüstriyel uygulamada kendine yer bulmaktadır. Blokzincir sağladığı bu avantajlar ve IoT tabanlı cihazların otomasyon sistemlerinde yaygın olarak kullanılmaya başlaması ile birlikte birçok problemin çözümünde kilit rol oynamaktadır. Bunun yanı sıra farklı blokzincir teknolojileri altyapılarından ötürü her uygulama için uygun değildir. Özellikle endüstriyel otomasyon uygulamalarında, blokzincir teknolojilerinin ve özelliklerinin daha uygun olduğuna karar verirken dikkate alınması gereken çeşitli faktörler bulunmaktadır. Bu faktorler, blok zincir türlerinin enerji gereksinimi, güvenlik, ölçeklenebilirlik ve performans olarak sıralanabilir. Bu calışma, blokzincir türlerinin farklı endüstriyel uygulamalardaki uygunluğunu ve performansını değerlendirilerek, araştırmacılara ve geliştiricilere yol göstermeyi amaçlamaktadır.
Açık kaynaklı biyomedikal sistemlerin hastane finansal yönetimine entegrasyonu, operasyonel verimliliğin arttırılması, maliyetlerin azaltılması ve finansal şeffaflığın arttırılması için dönüştürücü bir strateji olarak ortaya çıkmıştır. Bu çalışma, açık kaynaklı sistemlerin hastane operasyonlarının çeşitli yönleri üzerindeki etkisini incelemektedir. Açık kaynaklı biyomedikal sistemlerin uygulanmasının, hastane departmanları arasında kesintisiz veri entegrasyonunu kolaylaştırdığı, kritik bilgilere gerçek zamanlı erişim sağladığı ve iş akışlarını kolaylaştırdığı gösterilmiştir. Bu sistemler aynı zamanda sağlık profesyonelleri, araştırmacılar ve idari personel arasındaki işbirliğini de teşvik ederek operasyonel verimliliğin artmasına ve araştırma girişimlerinin hızlanmasına yol açar. Ayrıca, açık kaynaklı sistemlerin benimsenmesi hastanelerde önemli maliyet tasarruflarıyla ilişkilendirilmiştir. Bu sistemler, cerrahi prosedürleri optimize ederek, veri yönetimini geliştirerek ve idari giderleri azaltarak sağlık kurumlarının daha uygun maliyetli çalışmasına olanak sağlar. Açık kaynak platformlarının işbirlikçi doğası aynı zamanda yenilikçiliği ve sürekli iyileştirmeyi teşvik ederek maliyetlerin azaltılmasına daha fazla katkıda bulunur. Mali şeffaflığa ilişkin olarak, açık kaynaklı biyomedikal sistemler veri erişilebilirliğini, hesap verebilirliği ve paydaş katılımını artırır. Bu sistemler, mali bilgilerin kolayca erişilebilir olmasını sağlayarak şeffaflık ve hesap verebilirlik kültürünü teşvik ederek paydaşların mali uygulamaları incelemesine ve hastane yöneticilerini hesap verebilir kılmasına olanak tanır. Açık kaynak sistemleriyle ilişkili maliyet tasarrufları, finansal raporlama yeteneklerinin geliştirilmesine ve şeffaflık girişimlerine yatırım yapılmasına da yönlendirilebilir. Açık kaynaklı biyomedikal sistemlerin hastane finansal yönetiminde stratejik olarak uygulanması, sağlık kurumları için dönüştürücü bir fırsat sunmaktadır. Bu sistemler operasyonel verimliliği artırarak, maliyetleri düşürerek ve mali şeffaflığı artırarak hastane operasyonlarının sürdürülebilirliğine ve etkinliğine önemli ölçüde katkıda bulunabilir ve sonuç olarak daha iyi hasta bakımı ve çıktılar sağlayabilir.
Robotlar, diğer teknolojik cihazlar gibi, insan hayatına fayda sağlamak amacıyla birçok alanda kullanılmaktadır. Özellikle doğal afetler ve askeri uygulamalar gibi kritik alanlarda robotların kullanımı giderek daha önemli hale gelmiştir. Bu süreç, robotların geliştirilmesi ve belirli görevleri başarıyla yerine getirmelerinin sağlanmasıyla başlamaktadır. Robotik sistemlerin geliştirilmesi sırasında pek çok platform ve yazılım çerçevesi kullanılmakta olup, bu çalışmada açık kaynak kodlu platform ve yazılımlar ele alınmıştır. Çalışmada, gezgin robotlar ile proje oluşturma sürecinde bu açık kaynak sistemlerin kullanımını uygulama örnekleriyle açıklamak amacıyla hem kara hem de hava robotları incelenmiştir. Deneysel çalışmalar sırasında, açık kaynak sistemler kullanılarak bir robotun engellerle dolu bir ortamda başarılı bir şekilde navigasyon gerçekleştirdiği gösterilmiştir. Robot, RGB kamera ile çevresinden aldığı görüntülerle engelleri tespit etmiş ve hedef noktaya ulaşmıştır. Çalışmada robot olarak açık kaynak yazılımlarını destekleyen TurtleBot kullanılmış, simülasyon ortamı olarak ise Gazebo tercih edilmiştir. Bu araştırma, açık kaynak kodlu platformların gezgin robot uygulamalarındaki rolüne dair önemli bulgular sunmaktadır.
Bu çalışma, bir sensör olarak radyasyon sayacı donanımı eklenmiş otonom bir TurtleBot3 için açık kaynaklı ROS tabanlı bir paket geliştirmeyi amaçlamaktadır. Bu paket, robotun kontrolünü, iletişimini ve çevrenin radyasyon haritalamasını sağlamaktadır.
Hali hazırda bulunan bir radyasyon dedektörünün sensör olarak eklendiği robotun böcek algoritması sayesinde otonom hareket ederek radyasyon içeren belli bir alanı taraması ve radyasyon sayımı bilgisini yayınlaması sağlanmıştır.
Çalışmanın donanım tarafında, bir fotoçoğaltıcı tüpten yükseltilerek çıkan analog sinyaller, önce bir pencere disktiminatör devresi yardımıyla tek kanaldan dijital hale getirilmiştir. Ardından bir mikrodenetleyici sayesinde belli bir sürede alınan dijital sinyaller sayılarak TurtleBot3’te bulunan raspberry pi üzerindeki USB portuna ulaştırılmıştır. Çalışmanın yazılım tarafında ise, mikrodenetleyiciden çıkan radyasyon ölçümü verisini seri porttan dinleyen ve bunu ROS topic olarak yayınlayan bir modül yazılmıştır.
Çalışmada yazılan ROS modüllerinin TurtleBot3 meta paketine uygun olması sayesinde sürü robot çalışmalarında kullanılması veya benzer platformlara uygulanması sağlanmıştır. Bu amaçla, radyasyon ölçümü verisinin ROS topic üzerinde yayınını dinleyen ve SLAM tekniği ile bunu ısı haritası olarak yayınlayan bir modül eklenmiştir.
Daha sonraki çalışmalarda bu paketin birden çok dedektör olması durumu için geliştirilmeler yapılması ve böcek algoritmasından daha verimli alan tarama tekniklerinin eklenmesi planlanmaktadır.
ENGSLISH:
"A ROS Package for Radiation Mapping with an Autonomous TurtleBot3 Equipped with a Radiation Detector"
This study aims to develop an open-source ROS-based package for an autonomous TurtleBot3 equipped with a radiation counter hardware as a sensor, enabling control, communication of the robot, and radiation mapping of the environment.
By adding an existing radiation detector as a sensor, the robot, utilizing a bug algorithm, autonomously moves to scan an area containing radiation and publishes the radiation count information.
On the hardware side of the study, the analog signals generated by a photomultiplier tube are first converted to digital signal through a single-channel process using a window discriminator circuit. Then, the digital signals, counted over a specific period, are sent to the USB port on the Raspberry Pi mounted on the TurtleBot3 via a microcontroller. On the software side, a module was written to listen to the radiation measurement data from the microcontroller via the serial port and publish it as a ROS topic.
Since the ROS modules developed in this work are compatible with the TurtleBot3 meta-package, they can be used in swarm robot studies or applied to similar platforms. To achieve this, an additional module was added to listen to the radiation measurement data published on the ROS topic and broadcast it as a heatmap using SLAM techniques.
Further development of this package to handle multiple detectors and the addition of more efficient area scanning techniques beyond the bug algorithm might be studied in the future.
ÖZET
Hyperloop teknolojisi yüksek hızlı kara taşımacılığı alanında devrim yaratmayı hedefleyen yeni nesil bir ulaşım yöntemi olarak karşımıza çıkmaktadır. Teknolojinin merkezinde vakumlu tüneller yer almaktadır. Tünellerin içerisindeki kapsüller ulaşımı sağlamaktadır. Yüksek hızlı demiryolu sistemlerinde sistem mimarisi ve kontrol konusu her zaman geliştirilebilir bir başlık olarak karşımıza çıkmaktadır. Hyperloop teknolojinin mevcut potansiyelini koruması ve yeni bir ulaşım çağını başlatabilme ihtimali oldukça yüksektir. Bu nedenle sisteme yönelik açık kaynak yazılım modellerinin geliştirilmesi; bu teknolojinin daha ileri bir seviyeye gitmesi için oldukça kritik öneme sahiptir. Bu çalışmada model belirlenmiş bir hyperloop aracı için yazılım sistemi tasarımı gerçekleştirilmiştir. Önerilen yazılım modelinde ; güvenlik, enerji verimliliği, veri akışı, sensör entegrasyonu, otonom kontrol mekanizmaları ve iletişim altyapısı başlıkları ele alınmıştır. Ayrıca bu çalışma hyperloop teknolojisine genel bir bakış açısı sunmaktadır. Hyperloop teknolojisinde manyetik levitasyon ve tahrik kullanılır bu sayede çevre birimleri ile fiziksel temas ortadan kaldırılmıştır. Bu da kapsülün yüksek hız seviyelerine çıkmasını sağlamaktadır. Yüksek hızlı tren teknolojilerinde tepki süresi ve sistem karmaşıklığının yönetilebilir olması için yazılım mimarisi oldukça önemli bir rol oynamaktadır. Önerilen model “araç gömülü yazılımı” ve “kontrol bilgisayarı yazılımı” olarak ikiye ayrılmaktadır. Araç gömülü yazılımı bölümünde; Çevresel izleme, Enerji yönetimi, Aktüatör (Eyleyici), Sensör, Navigasyon ve Haberleşme, Otonom kontrol birimleri bulunmaktadır. Kontrol bilgisayarı yazılımı bölümünde; Sistem kontrolü akış, Arayüz, Haberleşme birimleri bulunmaktadır. Yazılım sistemi modeli tamamlandıktan sonra hyperloop teknolojisine ve gelecekte yapılabilecek sistem geliştirmelerine değinilerek çalışma tamamlanmıştır.
Anahtar Kelimeler: Hyperloop, Kapsül, Manyetik Levitasyon, Gömülü Yazılım
Veri gizliliğinin ve güvenliğinin önemi IoT teknolojilerindeki ilerleme ve Endüstri 4.0’ın getirdiği yeniliklerin birçok alanda etkin olarak kullanılmaya başlamasıyla birlikte daha da artmıştır. Son dönemde hızla gelişen teknoloji, başta CPU ve GPU’lar olmak üzere yapay zeka destekli donanımların artması, en güçlü algoritmalar ile gizlenmiş olan verilerin bile eskiye göre daha çabuk ele geçirilebilir olmasına sebep olmaya başladı. Standart ve üzeri donanım kullanan cihazlarda bu işlemler kolayca yapılırken, düşük hesaplama kapasiteli mikroişlemcili mimarilerde ek güvenlik uygulamaları kullanmak sistem performanslarını oldukça düşürmektedir. Blokzincir teknolojilerinin kullanımı bu sorunun çözümü için önemli alternatiflerden bir tanesidir. Blokzincir ağlarının ihtiyaç duyduğu donanım mimarisi ve donanım yeterlilikleri, ağın desteklediği işletim sistemi mimarisi, enerji tüketimi, verimlilik gibi etkenler kullanılabilirliği ve performansı direkt etkileyen faktörlerdir. Bu çalışmada, farklı mikroişlemci mimarileri kullanan donanımlar üzerinde farklı blokzincir ağlarının performansı ve uygulanabilirliği incelenmiştir. Verinin blokzincir ağı üzerinden gönderilirken var olan donanım, işletim sistemi ve iletişim ağı güvenliğinin blokzincir ağı ile arttırılmasını amaçlanmıştır.
Virtual Presentations in Turkish
İşletmelerin varlıklarını devam ettirmeleri ve rekabet üstünlüğünü sağlamaları ancak nitelikli insan kaynağı ile gerçekleştirilmektedir. Nitelikli çalışanların işletmeye kazandırılması işletmelerin öncelikli konusu ve aynı zamanda da sıkıntı yaşadıkları konuların başında gelmektedir. Dolayısıyla işe alım sürecinin önemli aşamalarından biri olan aday araştırma ve bulma sürecinin doğru yönetilmesi işletmeler için önem arz etmektedir. Yapay zekâ tüm işletme fonksiyonlarında olduğu gibi İnsan Kaynakları (İK) süreçlerinde de ciddi değişimler yaratmakta ve yaratmaya devam edecektir. Bu çalışmanın temel amacı da İK süreçlerinden biri olan işe alım sürecinde geliştirilecek olan algoritma ve modeller (yapay zeka) ile toplanan özgeçmişleri analiz ederek boş pozisyona dair en uygun ve güncel yetkinlikleri uyumlaştırmak ve bu yetkinlikleri ağırlıklandırmak, başvuruların özgeçmişleri puanlamak ve sıralamaktır. Bununla birlikte, aday ve kurum arasındaki operasyonel diğer süreçlerin yönetilmesini sağlayan sanal asistanı; işe yerleştirme noktasında özlük belge yönetimi işini otomatize eden ve işten ayrılma ihtimali tespiti de yapan uçtan uca süreç yönetimi ve karar destek sistemini; geliştirmek ve işe alım sürecine yönelik sorunlara çeşitli çözümler getirmek olup, bu ilişkinin nasıl modellenebileceğini ortaya çıkarmaktır. Bu çalışmanın kaynağını oluşturan ve açık kaynak kod desteği de alınarak geliştirilen proje çalışması ile uçtan uca alım süresinin ortalama en az %35 azaltılması, işe alım maliyetinin (zaman) şirket ölçeğine göre en az %30 azaltılması, uygun aday bulma süresinin en az %25 azaltılması ve adayların işe başvuru işleminin geleneksel yöntemlere göre en az %40 hızlandırılması sağlanmıştır.
Bu çalışma, güneş panelleri üzerinde oluşan kir, toz, kar ve hasar gibi dış etkenlerin, panel verimliliğine olan olumsuz etkilerinin nesne tanıma algoritmalarıyla tespit edilmesine odaklanmaktadır. Güneş panellerinde biriken bu unsurlar, enerji üretimini önemli ölçüde düşürerek ciddi verim kayıplarına yol açmaktadır. Bu bağlamda, açık kaynaklardan elde edilen 7485 görüntü kullanılarak, dört farklı sınıfa (temiz, kirli, hasarlı, karla kaplı) ayrılan geniş ve kapsamlı bir veri seti oluşturulmuştur. Veri seti üzerinde yapılan eğitimler, derin öğrenme tabanlı SSD Mobilenet ve Faster R-CNN gibi modeller kullanılarak gerçekleştirilmiştir. Bu modeller hem masaüstü bilgisayar ortamında hem de gömülü sistem platformu olan NVIDIA Jetson Nano’da eğitilmiş ve test edilmiştir. Elde edilen sonuçlar, masaüstü bilgisayarda daha yüksek işlem hızları sunarken, gömülü sistem platformunun yerinde tespitler için uygun bir alternatif olduğunu göstermektedir. Bu çalışmanın sonuçları, güneş enerjisi santrallerindeki verimlilik kayıplarını en aza indirerek bakım maliyetlerini düşürme ve panellerin
uzun vadeli performansını artırma potansiyeline sahip yenilikçi bir çözüm sunduğunu göstermektedir.
Virtual Presentations in English
In the field of healthcare, accurate diagnosis of neurological diseases is critical for detecting diseases at an early stage. This study aims at accurate and fast diagnosis of Alzheimer's and Parkinson's diseases using Magnetic Resonance (MR) images. For this purpose, the latest versions of the YOLO (You Only Look Once) algorithm, YOLOv8 and the experimentally developed YOLOv11 models are used. The dataset “enfermedades_cerebro-uagpl” was obtained from the Roboflow platform and contains images of Alzheimer's, Parkinson's and normal brain.
The results show that the YOLOv11 model offers higher accuracy and generalization capability, with an accuracy of 100%. The YOLOv8 model performed comparatively poorly with a success rate of 89.7%. The evaluation of the models is based on accuracy, mAP and other statistical metrics. The results show that YOLO algorithms provide an effective and fast solution, especially in the field of medical imaging.
This study highlights the potential of deep learning techniques in neurological disease diagnosis and increases the importance of AI-based diagnostic systems in future healthcare applications.
Machine learning has emerged in many fields thanks to its ability to extract meaningful information from large data sets, solve complex problems, and make predictions about the future. In healthcare, machine learning is used in various applications such as disease diagnosis, treatment planning, patient monitoring, and personalized healthcare. However, for these applications to be successful, large size of data are needed. Concerns about the privacy and confidentiality of health data make it difficult to collect this data on centralized servers and limit the effectiveness of data-driven models. Because of the need to protect privacy, collecting and analyzing individual patient data in a centralized system becomes a major challenge. Federated learning is a machine learning approach that allows data to be processed locally without being collected on a central server, and only model parameters are sent to the central server. This method provides secure model training by reducing network traffic while maintaining the confidentiality of the data. In this paper, we focus on diabetes prediction using the duCBA method developed for federated learning architecture. For model training, a dataset called Diabetes Health Indicators on the Kaggle platform was used. To manage the data flow and perform model training securely, three different environments were used: a central server, a Flask-based API server, and clients. Clients provide secure data privacy by performing distributed model training on their local data without sharing the data. The API and the central server are run in the Google Cloud Platform environment. The API server collects local model updates from clients and sends them to the central server using WebSocket when it has enough models. After the central server performs the model merge, it sends the updated global model to the API server. The API server then distributes this model to the clients. With this structure, clients participate in a centralized global model training process through the API without directly accessing the central server, and communication security is ensured through the WebSocket protocol. As a result of the tests conducted in the prototype application, the accuracy value of the model was calculated as 70%. These results support the wide applicability of federated learning in the healthcare domain.
Economic challenges faced by developing and underdeveloped countries often limit undergraduate electrical-electronics engineering students' access to hands-on learning in digital logic design platforms, potentially hindering the development of a skilled workforce. Practical experience is crucial for bridging the gap between theoretical knowledge and industry requirements, yet resource constraints often make it difficult to provide such opportunities. This paper introduces the design and initial prototype of a cost-efficient FPGA carrier board tailored for undergraduate digital design courses, while also being applicable for research and graduate-level courses. The board measures 12.75 x 12.75 cm and supports Sipeed GOWIN based FPGA system on modules, which is compatible with the available free and open-source toolchain for the design and implementation of custom logic circuits. With its projected low cost, this board is designed to enhance the accessibility and scalability of practical digital design education for students in economically disadvantaged regions.
In this paper, a MATLAB App program is presented that decomposes the numerator and denominator polynomials of transfer functions into their odd and even components. In control engineering, transfer functions are essential tools for modeling system dynamics, and decomposing these functions into their odd and even components is a key step in system analysis. The developed MATLAB App allows users to enter the numerator and denominator polynomials of transfer functions efficiently, automatically separating them into odd and even parts. This functionality enables researchers to examine system characteristics in more detail and perform essential analyses with ease. The MATLAB App is designed to reduce time and errors, making complex mathematical operations accessible through a user-friendly layout. This App aims to improve researchers' productivity and increase the efficiency of their analysis processes.
Chatbots offer a very fast, easy and dynamic interaction in textual, audio and visual forms. Their high-level capabilities have paved the way for the increasingly widespread use of chatbots on every platform that include human-machine interaction, from education to health, from finance to customer relationship management, and so on. University websites, as one of the most common and potential application areas of chatbots, have recently gained an attractive dynamism, speed, flexibility and high-level user experience. These sites, as frequently-visited platforms, provide a wide range of information and services to many people every day, including academic, administrative staff, active and prospective students. The richness and diversity of the features and functions offered by these sites cause them to be served in a dispersed and hierarchical structure. This distributed and relatively static structure makes it difficult to access information and causes cumbersome and inefficient use of functions and services. They also lack the dynamism of chatbots.
On the other hand, chatbots emerge as a much more dynamic, interactive, fast and easy tool, compared to ordinary web pages. These tools have the potential to accelerate and facilitate access to information; to perform frequent tasks effortlessly from a single point without getting lost among piles of pages; to be customizable for people; and to provide a higher level of user interaction and experience. They also promote the quality of education and services, communication and interaction between the parties, increasing the satisfaction of all stakeholders. Besides, universities are likely to reach much wider audiences with these tools.
This study provides a concise review on the benefits, potential opportunities, application types, difficulties and risks that can be provided by chatbots to university web platforms. In this context, many aspects such as development environments and technologies, difficulties, risks and security measures are discussed in detail and the right design and implementation approaches are presented. It also reveals how well-designed chatbots with the right content and scope can benefit all internal and external stakeholders and potential students. Additionally, the opportunities and potential that these tools can provide in improving the service quality of universities are discussed. Consequently, this study shows how chatbots will be an important part and play a critical role in the future of university websites.
Plant disease detection and classification are critical for ensuring sustainable agriculture and food security. In recent years, convolutional neural networks (CNNs) have emerged as state-of-the-art solutions for image classification tasks due to their remarkable performance in extracting meaningful features from complex datasets. This study evaluates the performance of state-of-the-art CNN architectures, including VGG16, ResNet50, and MobileNetV2, on a publicly available plant disease dataset. The dataset consists of high-resolution images of leaves affected by various diseases, as well as healthy samples, providing a robust testbed for assessing model performance. Each model demonstrated reliable classification results, with VGG16 performing slightly better in balancing accuracy and computational efficiency. However, all models struggled with subtle disease patterns, highlighting the need for further optimization or integration with advanced preprocessing techniques.
This study presents the design and simulation of a circularly polarized antenna operating at 137 MHz, intended for applications such as NOAA weather satellite reception. The antenna system is based on two V-dipole antennas configured to achieve circular polarization with a 90° phase difference between them. Each V-dipole is constructed using two 540 mm long copper rods, positioned at a 120° angle, and fed at the intersection of the rods. Simulation results indicate an S11 value below -18 dB at the target frequency, ensuring efficient impedance matching. The radiation pattern of the single V-dipole exhibits an omnidirectional characteristic with a maximum gain of 1.41 dBi. To enhance directionality and achieve circular polarization, the V-dipoles are placed orthogonally along the z-axis with a 547 mm separation. After optimization, the system achieved a maximum realized gain of 1.24 dBi and an axial ratio of 0.15 dB along the positive z-axis. To further improve gain and directionality, reflector rods were introduced, increasing the maximum realised gain to 4.82 dBi. The final design demonstrates a good circular polarization performance with an axial ratio below 3 dB over a wide angular range. This antenna design satisfies the required specifications, making it suitable for satellite communication applications.
Data analytics platforms such as Alteryx, Tableau Prep, RapidMiner, and other similar data preparation and analytics tools have revolutionized the way businesses and individuals handle large volumes of data without the need for advanced programming skills. Likewise, these platforms have become important tools within higher education settings. They are increasingly utilized to perform complex data collection, wrangling, transformation, analysis, and visualizations in ways that were once complex or time-consuming. This review paper highlights the importance of these platforms in a data-driven education world, emphasizing their impact on operational efficiency and informed decision-making across diverse academic fields. It also explores the differences between these platforms, offering a comparative analysis of their unique features and functionalities. Overall, these package programs optimize data management, enhance productivity, and broaden access to data analytics across diverse user groups, all of which are essential in today’s data-driven world.
Keywords: Alteryx, tableau prep, RapidMiner, KNIME, SAS
This paper describes the design and implementation of an open-source healthcare portal created especially for healthcare providers. The portal is FHIR compliant, enabling seamless, consistent, and secure data exchange between healthcare systems. The system is built with a reliable and scalable architecture to meet the complex needs of modern healthcare environments and is developed using Spring Boot, Quasar, and Docker.
This portal is unique due to its integration/use of four different AI models, with each model trained on a specific dataset, such as encounters, medications, clinical notes, and procedures. These models give actionable insights derived from large sets of patient data and communicate clinically meaningful results to the physician. These insights will help provide better decision-making capabilities, optimize workflows, and improve overall efficiencies in patient care management.
The project is hosted on DigitalOcean. It allows us to tap into the security and scalability of their infrastructure to guarantee high availability while also letting us cope with variable workloads.
The solution not only supports clinical decisions but also promotes interoperability across diverse healthcare systems. On the other hand, this paper showcases methods of using open-source tools and standards to solve real-world problems and illustrates how open-source technology can transform health care. An useful tool to increase provider efficiency, cultivate collaboration, and allow providers to deliver high-quality patient care through a consistent and simple process.
The rapid advancement of artificial intelligence (AI) has brought forth an array of powerful large language models (LLMs) designed to process and generate human-like text across diverse applications. This study provides a comprehensive comparative analysis of leading LLMs, including GPT series, BERT derivatives, and other cutting-edge models such as PaLM and LLaMA. The comparison is conducted on various dimensions, including architectural design, training methodologies, data scaling, computational requirements, performance metrics, and adaptability to downstream tasks. Key benchmarks, such as natural language understanding (NLU), text generation quality, and fine-tuning capabilities, are evaluated. Additionally, the study examines the models’ limitations, such as ethical concerns, computational costs, and susceptibility to bias. Insights into their deployment in real-world applications, including content generation, code synthesis, and conversational AI, are highlighted. The findings aim to guide researchers, developers, and industry professionals in selecting and optimizing LLMs for specific use cases while identifying gaps and future directions for innovation. By delineating the strengths and weaknesses of each model, this study contributes to the broader understanding of the state-of-the-art in LLM research and its implications for advancing AI capabilities responsibly.