<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>DEV Community: Salinthip</title>
    <description>The latest articles on DEV Community by Salinthip (@salincalyna).</description>
    <link>https://dev.to/salincalyna</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F2537693%2Fa7812fba-c096-42fb-9c24-4cbbe9acf83e.jpeg</url>
      <title>DEV Community: Salinthip</title>
      <link>https://dev.to/salincalyna</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://dev.to/feed/salincalyna"/>
    <language>en</language>
    <item>
      <title>BLERP: Bluetooth Security Exploits and Impersonation Defense</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Mon, 20 Apr 2026 08:13:15 +0000</pubDate>
      <link>https://dev.to/salincalyna/blerp-bluetooth-security-exploits-and-impersonation-defense-1pn2</link>
      <guid>https://dev.to/salincalyna/blerp-bluetooth-security-exploits-and-impersonation-defense-1pn2</guid>
      <description>&lt;p&gt;BLERP: A Hidden Re-Pairing Flaw in Bluetooth Low Energy You Probably Didn’t Know About&lt;/p&gt;

&lt;p&gt;Recently, I came across a talk from NDSS 2026 that really caught my attention. It was about something in Bluetooth security that I honestly hadn’t thought deeply about before.&lt;/p&gt;

&lt;p&gt;It’s called BLERP (BLE Re-Pairing Attacks).&lt;/p&gt;

&lt;p&gt;And after reading about it, it kind of changed the way I look at Bluetooth security in general.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;🔍 The surprising part: it’s not about encryption at all&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;What surprised me most is that this isn’t an attack on cryptography.&lt;/p&gt;

&lt;p&gt;It’s actually about something much more “boring” on the surface — re-pairing.&lt;/p&gt;

&lt;p&gt;In the Bluetooth Core Specification v6.2 (which is around 3,800 pages long), the term re-pairing is mentioned only a handful of times.&lt;/p&gt;

&lt;p&gt;And that’s where the problem starts.&lt;/p&gt;

&lt;p&gt;Because it’s not clearly defined, different vendors interpreted and implemented it differently. Over time, that inconsistency created a gap in the system.&lt;/p&gt;

&lt;p&gt;A gap that can actually be exploited.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;⚠️ So what does BLERP actually target?&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;Instead of trying to break encryption, BLERP focuses on something more subtle — the trust relationship between devices.&lt;/p&gt;

&lt;p&gt;In other words, it tries to interfere with how devices decide:&lt;/p&gt;

&lt;p&gt;“Do I trust this device again?”&lt;/p&gt;

&lt;p&gt;If an attacker can manipulate that re-pairing process, they may be able to:&lt;/p&gt;

&lt;p&gt;Pretend to be a trusted device&lt;br&gt;
Intercept communication (Man-in-the-Middle attack)&lt;br&gt;
Force a downgrade in security level&lt;br&gt;
In some cases, do all of this without any user interaction&lt;/p&gt;

&lt;p&gt;That last part is probably the most concerning.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;💥 What the real-world testing showed&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;The researchers didn’t just simulate this in theory. They tested real devices from major vendors like:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Apple&lt;/li&gt;
&lt;li&gt;Google&lt;/li&gt;
&lt;li&gt;Microsoft&lt;/li&gt;
&lt;li&gt;Logitech
And the results were quite eye-opening.&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Many devices showed some level of vulnerability, but what stood out more was how inconsistent everything was:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Different operating systems behaved differently (iOS, Android, Windows, macOS, Linux)&lt;/li&gt;
&lt;li&gt;Some vendors have already released patches&lt;/li&gt;
&lt;li&gt;Others are still investigating or haven’t confirmed fixes yet
So it’s not just one ecosystem — it’s a broader design issue.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;strong&gt;🛡️ What this means for developers&lt;/strong&gt;&lt;br&gt;
The main takeaway for me is that this isn’t really about weak encryption.&lt;/p&gt;

&lt;p&gt;It’s about unclear protocol design and inconsistent implementation across vendors.&lt;br&gt;
If you’re working with BLE systems, there are a few things worth keeping in mind:&lt;/p&gt;

&lt;p&gt;Be careful with how re-pairing logic is handled&lt;br&gt;
Always enforce strict security levels when reconnecting&lt;br&gt;
Make sure old and new keys are properly bound during re-pairing&lt;br&gt;
Validate session integrity to avoid MitM-style manipulation&lt;/p&gt;

&lt;p&gt;Basically, don’t assume the protocol handles trust safely for you.&lt;/p&gt;

&lt;p&gt;Written by:&lt;br&gt;
Ms. Salintip Keeratirat&lt;br&gt;
6630613037&lt;/p&gt;

</description>
      <category>ai</category>
      <category>security</category>
      <category>bluetooth</category>
      <category>cybersecurity</category>
    </item>
    <item>
      <title>Adversarial Attacks and Defenses in Deep Learning Systems: Threats, Mechanisms, and Countermeasures</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Tue, 24 Mar 2026 13:22:21 +0000</pubDate>
      <link>https://dev.to/salincalyna/adversarial-attacks-and-defenses-indeep-learning-systems-threatsmechanisms-and-countermeasures-24cl</link>
      <guid>https://dev.to/salincalyna/adversarial-attacks-and-defenses-indeep-learning-systems-threatsmechanisms-and-countermeasures-24cl</guid>
      <description>&lt;p&gt;After listening to the presentation on adversarial attacks, I feel like I understand AI much better than before. Even though AI looks very powerful and is used in many areas such as self-driving cars, medical image analysis, and computer vision systems, it actually has some important weaknesses. The main issue is that AI does not truly “understand” what it sees like humans do. Instead, it processes everything as numbers, like pixel values in an image, which are then treated as vectors. The model learns patterns from this numerical data, not meaning. Because of this, even a very small change in the input—something humans cannot even notice—can shift the data enough to change the model’s decision completely. This is what we call adversarial perturbation.&lt;/p&gt;

&lt;p&gt;A good example is the Panda experiment, where adding a tiny amount of noise to an image causes the model to classify a panda as a gibbon, and even with higher confidence than before. This clearly shows that the model is not really understanding the object, but just reacting to patterns it has learned. There are also specific techniques used to create these adversarial examples. For example, FGSM uses the gradient of the loss function to find a direction that increases the model’s error, and then adds a small change in that direction. PGD is a stronger method because it repeats this process multiple times, making the attack more effective and harder for the model to resist.&lt;/p&gt;

&lt;p&gt;Another interesting point from the presentation is that these attacks are not limited to digital images but can also happen in the real world. For instance, adversarial patches—special stickers designed to trick AI—can cause the model to focus on the wrong features. Instead of recognizing the real object, the model may pay more attention to the patch, leading to incorrect classification. In some cases, it can even fail to detect a person completely. This becomes a serious problem in real-world systems like CCTV, autonomous vehicles, and medical applications, where even small errors can lead to dangerous consequences.&lt;/p&gt;

&lt;p&gt;Although modern models like CNNs and Vision Transformers (ViTs) have improved performance and can learn more complex patterns, they are still vulnerable to these kinds of attacks. The presentation also discussed several defense methods, such as adversarial training, anomaly detection, and data purification using generative models. However, each method has its own limitations, such as requiring high computational resources or reducing accuracy on normal data. This means that there is still no perfect solution to fully protect AI systems from adversarial attacks.&lt;/p&gt;

&lt;p&gt;Overall, this presentation changed my perspective on AI quite a lot. Before this, I thought AI was very reliable and almost “intelligent” in the human sense. But now I see that it still has major limitations, especially in terms of understanding and robustness. In my opinion, AI is powerful, but it cannot be fully trusted yet, especially in safety-critical applications. There is still a lot of work needed to make these systems more robust and reliable in the future.&lt;/p&gt;

&lt;p&gt;Summarized by&lt;br&gt;
Miss Salinthip Keereerat&lt;br&gt;
Student ID: 6630613037&lt;/p&gt;

</description>
      <category>webdev</category>
      <category>ai</category>
      <category>programming</category>
      <category>machinelearning</category>
    </item>
    <item>
      <title>Meta concerns in ML security/privacy is due– University of Waterloo x PSU</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Fri, 09 May 2025 09:18:11 +0000</pubDate>
      <link>https://dev.to/salincalyna/meta-concerns-in-ml-securityprivacy-is-due-university-of-waterloo-x-psu-4npe</link>
      <guid>https://dev.to/salincalyna/meta-concerns-in-ml-securityprivacy-is-due-university-of-waterloo-x-psu-4npe</guid>
      <description>&lt;p&gt;version:Thai&lt;br&gt;
2pt: motivation of this work, i.e., what are the problems addressed by this work? And why are these problems important in real world?&lt;br&gt;
&lt;strong&gt;•แรงจูงใจของงานวิจัยนี้&lt;/strong&gt;&lt;br&gt;
วันนี้ได้ฟังบรรยายจากอาจารย์มหาวิทยาลัยวอเตอร์ลูเรื่อง “Meta Concerns in ML Security and Privacy” ซึ่งไม่ได้เป็นแค่การพูดถึงเทคนิคทั่วไป แต่เป็นการลงลึกถึงแนวคิดด้านความปลอดภัยของ Machine Learning (ML) ที่ต้องมองให้เป็นระบบ ไม่ใช่แค่ปิดช่องโหว่ทีละจุด แต่ต้องเข้าใจว่า ใครเป็นผู้โจมตี ทำไมถึงต้องโจมตี และเราจะป้องกันอย่างไรโดยไม่สร้างปัญหาใหม่&lt;br&gt;
ทุกวันนี้ AI ไม่ได้เป็นแค่เครื่องมือทดลองในห้องแลบอีกต่อไป แต่มันได้กลายเป็น องค์ประกอบสำคัญของระบบที่ใช้ในชีวิตจริง ตั้งแต่ การวินิจฉัยโรค การตรวจสอบเครดิต ไปจนถึงระบบความปลอดภัยทางไซเบอร์ สิ่งที่สำคัญคือ AI ที่เราพัฒนา มีความปลอดภัยมากพอหรือยัง อีกหนึ่งในประเด็นที่น่าสนใจคือ ความเป็นเจ้าของโมเดล AI ซึ่งยังไม่มีระบบที่ชัดเจนว่าคนไหนเป็นเจ้าของโมเดลจริง ๆ มีเทคนิคอย่าง Watermarking (ฝังข้อมูลลับในโมเดล) หรือ Fingerprinting (สร้างลายเซ็นเฉพาะ) ที่ช่วยได้บ้าง แต่ก็มีข้อเสียเรื่อง ต้นทุนสูงและความทนทานในการตรวจสอบ  นอกจากนี้ยังมีปัญหาที่สำคัญคือ ผู้โจมตี AI ไม่ได้มีเป้าหมายเดียวกัน บางคนต้องการ ขโมยโมเดลไปใช้ แต่บางคนต้องการ สร้างเรื่องเท็จและกล่าวหาว่ามีการละเมิด น่าเสียดายที่ปัจจุบันยังไม่มีมาตรการป้องกันที่ครอบคลุมทุกกรณี  และอีกเรื่องที่ควรระวังคือ การชนกันของระบบป้องกัน บางเทคนิคที่ช่วยป้องกันโมเดลจากการถูกขโมย กลับทำให้โมเดลง่ายต่อการถูกโจมตีแบบอื่น เช่น การปลอมแปลงข้อมูลฝึก (Data Poisoning) ดังนั้น การออกแบบระบบป้องกันต้อง มองให้รอบด้าน ไม่ใช่แค่แก้ปัญหาจุดเดียว&lt;br&gt;
สุดท้าย อาจารย์ได้นำเสนอ Amulet Toolkit ซึ่งเป็น เครื่องมือโอเพ่นซอร์ส ที่ให้ทดลองทั้งการโจมตีและป้องกันโมเดล ML ทำให้เข้าใจภาพรวมของความปลอดภัยใน AI ได้ชัดเจนขึ้น&lt;/p&gt;

&lt;p&gt;3pt: takeway from this talk. This is free-form. Try to put something you understand and think its cool from this talk.&lt;br&gt;
•สิ่งที่ได้รับจากงานนี้ &lt;br&gt;
สิ่งที่ฉันได้เรียนรู้จากงานนี้คือ AI ไม่ใช่แค่การตั้งรับหรือการป้องกันเท่านั้น แต่ต้องคิดเชิงกลยุทธ์และวางแผนการป้องกันอย่างรอบด้าน ประเด็นที่น่าสนใจที่สุดคือเรื่องของ “การพิสูจน์ความเป็นเจ้าของโมเดล” ที่ไม่ใช่แค่การสร้างโมเดลแล้วจบ แต่ต้องคิดถึงว่าโมเดลนี้เป็นของใคร และเราจะป้องกันการลอกเลียนแบบได้อย่างไร เทคนิครวมถึง Watermarking และ Fingerprinting ที่ช่วยได้ในบางกรณี แต่ก็มีข้อจำกัด เช่น ต้นทุนสูงและความทนทานที่ต่ำ&lt;br&gt;
ยิ่งไปกว่านั้น ผู้โจมตีไม่ใช่แค่จะขโมยโมเดลเพื่อใช้งาน แต่บางคนอาจจะต้องการสร้างข้อกล่าวหาหรือข้อสงสัยเกี่ยวกับโมเดลนั้น ซึ่งแสดงให้เห็นว่าเราต้องมีกลยุทธ์ในการป้องกันที่ซับซ้อนและหลากหลายมากขึ้น&lt;br&gt;
สิ่งที่ทำให้ฉันตื่นเต้นมากคือ Amulet Toolkit เครื่องมือโอเพ่นซอร์สที่ช่วยให้เราสามารถทดลองโจมตีและป้องกันโมเดล AI ได้จริงๆ มันช่วยให้เห็นภาพชัดเจนถึงวิธีการโจมตีที่อาจเกิดขึ้นและการป้องกันที่มีประสิทธิภาพ&lt;br&gt;
สรุปคือจากการบรรยายครั้งนี้ มุมมองของฉันเกี่ยวกับความปลอดภัยใน AI เปลี่ยนไปเลย ตอนนี้ฉันเห็นแล้วว่า AI ไม่เพียงแต่ต้องฉลาดขึ้น แต่ต้องปลอดภัยขึ้นและต้องมีหลักฐานที่รองรับว่าโมเดลที่เราใช้ทำงานได้อย่างถูกต้องและปลอดภัย และฉันจะนำความรู้ที่ได้รับไปปรับใช้ในชีวิตประจำวันและในการเรียนให้ดีที่สุด ความรู้ที่ได้เรียนในครั้งนี้ประโยชน์มากๆและขอบคุณอาจารย์โอ๊คที่ได้นำอาจารย์จากมหาวิทยาลัยขั้นนำมาให้ความรู้พวกเราในครั้งนี้เป็นประสบการณ์ที่ดีมากๆค่ะ&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Laminator: Verifiable ML Property Cards using Hardware-assisted Attestations. University of Waterloo x PSU</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Fri, 09 May 2025 08:53:38 +0000</pubDate>
      <link>https://dev.to/salincalyna/laminator-verifiable-ml-property-cards-using-hardware-assisted-attestations-university-of-7pb</link>
      <guid>https://dev.to/salincalyna/laminator-verifiable-ml-property-cards-using-hardware-assisted-attestations-university-of-7pb</guid>
      <description>&lt;p&gt;version:Thai&lt;/p&gt;

&lt;p&gt;Motivation of this work, i.e., what are the problems addressed by this work? And why are these problems important in real world?&lt;br&gt;
&lt;strong&gt;•แรงจูงใจของงานวิจัยนี้&lt;/strong&gt;&lt;br&gt;
ในทุกวันนี้ AI ได้เข้ามามีบทบาทในชีวิตประจำวันของเราอย่างมาก ไม่ว่าจะช่วยแพทย์วินิจฉัยโรค การตรวจสอบเครดิต  ตรวจสอบความน่าเชื่อถือและมักจะให้บริษัทต่างๆในเรื่องต่างๆ โดยที่ AI การตัดสินใจเรื่องสำคัญในลักษณะนี้จะมั่นใจได้ว่าจะทำงานอย่างมีประสิทธิภาพมากขึ้นหรือไม่? ปัจจุบันมีเครื่องมือโมเดลการ์ดและเอกสารข้อมูลทางเทคนิคและเอกสารข้อมูลทางเทคนิคจะถูกฝึกด้วยอะไรและอย่างไรวิธีการยังคงเน้นไปที่ AI ของสหภาพยุโรป AI Act เพื่อการขึ้นๆ ลงๆ "ความเชื่อใจ" เท่านั้นที่อาจเป็นไปได้อีกเครื่องเคลือบบัตรที่เข้ามาแก้ไขปัญหานี้ โดยคำแนะนำของผู้อำนวยการใหม่ด้านวิชาการตรวจสอบโมเดล AI (ML Property Cards) ตรวจสอบได้จริง โดยส่วนใหญ่ Trusted Execution Environments (TEEs) ฮาร์ดแวร์พิเศษ ฝ่ายวิจัยถูกตรวจสอบอย่างละเอียด AI TEE อย่างเป็นทางการ:  โดยไม่ต้องคำนึงถึงจากภายนอก,สามารถวัดและบันทึกการดำเนินการของโมเดลโดยตรง, มีหลักฐานระบบควบคุมด้านไอทีที่รับรองว่าโมเดลนี้เชื่อถือได้จริงระบบควบคุมนี้ช่วยให้ AI สามารถเพิ่มประสิทธิภาพของโมเดลได้ สามารถปฏิบัติตามข้อตรวจสอบด้านเทคโนโลยีอย่างต่อเนื่องขึ้นอย่างต่อเนื่องอย่างต่อเนื่อง&lt;/p&gt;

&lt;p&gt;Takeway from this talk. This is free-form. Try to put something you understand and think it's cool from this talk.&lt;br&gt;
•สิ่งที่ได้รับจากงานนี้ &lt;br&gt;
สิ่งที่ฉันคิดว่าน่าสนใจที่สุดจากงานนี้คือแนวคิดที่ว่า AI ไม่ควรแค่ ไว้วางใจ เท่านั้น แต่ควร พิสูจน์ได้ ว่ามันทำงานได้จริง Laminator พัฒนาระบบที่สามารถสร้าง "บัตรคุณสมบัติของโมเดล AI" ที่ตรวจสอบได้ผ่านหลักฐานทางการเข้ารหัส ซึ่งทำให้แตกต่างจากวิธีอื่นๆ อย่าง Zero Knowledge Proofs (ZKP) หรือ Multi-Party Computation (MPC) ที่มักจะใช้เวลานานและไม่เหมาะสมกับการใช้งานจริง&lt;br&gt;
สิ่งที่น่าสนใจมากคือ Laminator ใช้ฮาร์ดแวร์ TEE ในการฝึกและประเมินโมเดล AI ซึ่งมีระบบ “Measurer” คอยวัดคุณสมบัติของโมเดล และสร้าง “Property Card Snippets” ที่มีลายเซ็นดิจิทัลรับรองความถูกต้อง ซึ่งทำให้เราสามารถตรวจสอบได้ชัดเจนว่าโมเดลนี้เชื่อถือได้จริงๆ&lt;br&gt;
สิ่งที่สำคัญที่สุดคือ Laminator ไม่ได้แค่เป็นแนวคิดหรือทฤษฎีเท่านั้น แต่กำลังพัฒนาเป็นมาตรฐานใหม่สำหรับความโปร่งใสของ AI ที่จะช่วยเพิ่มความมั่นใจให้กับผู้ใช้และองค์กรต่างๆ ในอนาคต ซึ่งจะทำให้ AI ไม่ใช่แค่เทคโนโลยีที่เราใช้ แต่ยังเป็นเทคโนโลยีที่เราสามารถไว้วางใจได้จริงๆ&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;อนาคตของ Laminator&lt;/strong&gt;&lt;br&gt;
Laminator ยังมีแผนพัฒนาต่อไป เช่น รองรับโมเดลสมัยใหม่อย่าง GPT หรือ Stable Diffusion รันบน Intel TDX เพื่อเพิ่มความเร็ว และรองรับการฝึกโมเดลขนาดใหญ่ด้วย NVIDIA H100 รวมถึงการสร้างระบบที่สามารถตรวจสอบแบบ real-time ซึ่งจะทำให้การตรวจสอบ AI เป็นเรื่องง่ายและสะดวกมากขึ้น&lt;br&gt;
สุดท้ายนี้ฉันจะนำความรู้นี้ไปปรับใช้ทั้งในการเรียนและชีวิตประจำวัน เพื่อพัฒนาความเข้าใจด้านความปลอดภัยของ AI ให้ดีขึ้น รวมถึงพิจารณาถึงความเสี่ยงและแนวทางป้องกันให้รอบด้านเสมอ ขอบคุณสำหรับโอกาสในการเรียนรู้ที่มีคุณค่าและถือว่าเป็นประสบการณ์ที่ดีมาก ขอบคุณอีกครั้งค่ะ&lt;/p&gt;

</description>
    </item>
    <item>
      <title>Laminator: Verifiable ML Property Cards using Hardware-assisted Attestations. University of Waterloo x PSU</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Thu, 08 May 2025 12:53:54 +0000</pubDate>
      <link>https://dev.to/salincalyna/laminator-verifiable-ml-property-cards-using-hardware-assisted-attestations-university-of-h84</link>
      <guid>https://dev.to/salincalyna/laminator-verifiable-ml-property-cards-using-hardware-assisted-attestations-university-of-h84</guid>
      <description>&lt;p&gt;By Salinthip Keereerat&lt;br&gt;
2nd year Digital Engineering student at PSU Phuket 🇹🇭&lt;br&gt;
Impatient of AI, Cybersecurity and UX/UI&lt;/p&gt;

&lt;p&gt;Artificial Intelligence (AI) is no longer just hype—it’s now making decisions that can significantly impact our lives. From medical diagnoses to determining your creditworthiness, AI is everywhere.&lt;/p&gt;

&lt;p&gt;But while many ask, “Does this AI model work?”, the real question should be:“How do we know the model was built correctly in the first place?”&lt;/p&gt;

&lt;p&gt;🌐 Belief Isn’t Enough Anymore&lt;br&gt;
Today, we rely on documents like model cards and training datasheets to tell us what data was used and what a model is intended for. While these tools promote transparency, they’re still based on trust—and when AI regulations (like the EU AI Act) become stricter, that’s just not enough.&lt;/p&gt;

&lt;p&gt;What if instead of hoping, we could actually verify those claims?&lt;br&gt;
🔒 The Real Challenge: Trust Isn’t a Strategy&lt;br&gt;
As global AI regulations take shape, especially across Europe and the West, trust-based claims won’t cut it anymore. We’ll need iron-clad, verifiable evidence to prove that an AI model does what it claims—and that it was ethically and safely trained.&lt;/p&gt;

&lt;p&gt;That’s where verifiable ML property cards come in. These are not just statements—they’re backed by cryptographic proof.&lt;/p&gt;

&lt;p&gt;🖥️ Enter TEEs: The Hardware Behind the Trust&lt;br&gt;
At the heart of this solution are Trusted Execution Environments (TEEs)—secure areas in computer hardware where sensitive processes are isolated from the rest of the system.&lt;/p&gt;

&lt;p&gt;Here’s what TEEs bring to the table:&lt;br&gt;
✅ Models are trained and evaluated inside a protected zone&lt;br&gt;
✅ Model behavior is measured and recorded with zero tampering&lt;br&gt;
✅ Cryptographic proof (remote attestation) confirms the model's integrity&lt;br&gt;
✅ Sensitive data stays secure throughout the process&lt;br&gt;
This hardware-based approach offers a solid foundation for AI trustworthiness.&lt;/p&gt;

&lt;p&gt;⚙️ Meet Laminator: A New Standard for Verified AI&lt;br&gt;
Laminator is a powerful framework that uses TEEs to produce verifiable ML property cards. Here’s how it works:&lt;br&gt;
🧠 ML training and inference are conducted inside a TEE&lt;br&gt;
🔎 A “measurer” inside the TEE evaluates the model’s properties&lt;br&gt;
📄 A property card fragment is created to certify the claims&lt;br&gt;
🔐 These fragments are packaged into a verifiable assertion&lt;br&gt;
This approach enables anyone to independently validate the claims—no blind trust required.&lt;/p&gt;

&lt;p&gt;🚀 Why Laminator Stands Out&lt;br&gt;
Compared to other methods like Zero Knowledge Proofs (ZKPs) or Multi-Party Computation (MPC)—which can be slow or overly complex—Laminator offers:&lt;br&gt;
⚡ Speed&lt;br&gt;
🔐 Strong security&lt;br&gt;
📈 Scalability&lt;br&gt;
🔄 Flexibility for different types of models&lt;br&gt;
It’s a practical solution ready for real-world deployment.&lt;/p&gt;

&lt;p&gt;🛠️ What’s Next for Laminator?&lt;br&gt;
The team is already working on future enhancements, such as:&lt;br&gt;
🧩 Running Laminator natively on Intel TDX for even better performance&lt;br&gt;
💻 Leveraging NVIDIA H100 GPUs for training larger, more complex models&lt;br&gt;
🧠 Supporting next-gen models like LLMs and text-to-image diffusion&lt;br&gt;
🛡️ Real-time runtime attestation for live environments&lt;br&gt;
🌐 A distributed ecosystem that enables cross-organization trust and validation&lt;br&gt;
These innovations aim to make Laminator the gold standard for AI accountability.&lt;/p&gt;

&lt;p&gt;✅ Conclusion: From Trust to Proof&lt;br&gt;
As AI regulation tightens, verifiable ML property cards are becoming a must, not a luxury.&lt;br&gt;
Laminator offers a scalable, secure, and efficient path to trustworthy AI—powered by hardware-based attestation.&lt;br&gt;
In a world where “just trust us” no longer works, Laminator bridges the gap between belief and proof, ensuring AI is not just powerful—but also accountable. 🌱&lt;/p&gt;

</description>
      <category>webdev</category>
      <category>ai</category>
      <category>programming</category>
    </item>
    <item>
      <title>Meta concerns in ML security/privacy University of Waterloo x PSU</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Thu, 08 May 2025 12:36:06 +0000</pubDate>
      <link>https://dev.to/salincalyna/meta-concerns-in-ml-securityprivacy-is-due-university-of-waterloo-x-psu-450a</link>
      <guid>https://dev.to/salincalyna/meta-concerns-in-ml-securityprivacy-is-due-university-of-waterloo-x-psu-450a</guid>
      <description>&lt;p&gt;by Salinthip Keereerat.&lt;br&gt;
2nd-year Digital Engineering student @ PSU Phuket 🇹🇭&lt;br&gt;
Passionate about AI, Cybersecurity, and UX/UI&lt;/p&gt;

&lt;p&gt;🎙️ I recently attended a really eye-opening talk called “Meta Concerns in ML Security and Privacy” by a professor from the University of Waterloo. It wasn’t your usual technical deep dive—it focused more on the big picture of how we can keep machine learning (ML) systems safe in the long run.&lt;/p&gt;

&lt;p&gt;🌟 Why This Talk Was So Interesting&lt;br&gt;
Machine learning is used to improve efficiency in important areas now—like healthcare, finance, and cybersecurity. But building a smart model isn’t enough anymore.&lt;br&gt;
We need to make sure our models are secure, strong, and can be trusted, especially when real people’s lives or money are involved.&lt;/p&gt;

&lt;p&gt;What really stuck with me was this:&lt;br&gt;
ML security isn’t just about fixing problems when they show up—it’s about planning ahead, thinking about who might attack the model, why they’d do it, what harm it may cause, and how to defend it in smart ways.&lt;/p&gt;

&lt;p&gt;🔑 What I Learned&lt;br&gt;
There are way to slowdown/prevent model stealing but the current solution are not very good or effective.&lt;br&gt;
you can embed the watermarking while training but this cannot resist model extraction.but you can prove it's yours.&lt;br&gt;
this is to protect you against malicious accuser trying to frame a model owner timestamping or watermarking is the only defense in this case.&lt;/p&gt;

&lt;p&gt;🤖It’s tricky to prove who actually “owns” a trained model. Techniques like watermarking (hiding info inside the model) or fingerprinting (adding unique traits) might help, but they’re not perfect and can be hard to verify.&lt;/p&gt;

&lt;p&gt;👀 Different Attackers = Different Problems&lt;br&gt;
Not every attacker has the same goal. Some want to steal your model and use it, while others might just want to accuse you of stealing theirs. We need different kinds of protection for different threats—but most current tools only handle one.&lt;/p&gt;

&lt;p&gt;⚠️ Too Many Defenses Can Backfire&lt;br&gt;
Sometimes adding more security tools makes things worse. For example, one fix might block model theft but accidentally make the model easier to poison. So we have to find the right balance.&lt;/p&gt;

&lt;p&gt;🧩 No One-Size-Fits-All Fix&lt;br&gt;
ML security is complicated. There’s no single fix that works for everything. We need smarter, more connected strategies that can handle multiple risks at once.&lt;/p&gt;

&lt;p&gt;🛠️ Amulet Toolkit&lt;br&gt;
The speaker shared a tool called Amulet—it’s open-source and lets you try out different ML attacks and defenses. If you’re curious about ML security, it sounds like a great way to learn by doing!&lt;/p&gt;

&lt;p&gt;💭 My Final Thoughts&lt;br&gt;
This talk really changed how I see machine learning security. It’s not just about adding more tools—it’s about thinking long-term and making smart decisions.&lt;br&gt;
As a Digital Engineering student, it got me super excited to explore this field more. There’s so much to discover—and so many chances to help build safer, smarter systems.&lt;/p&gt;

&lt;p&gt;If you’re working on anything with AI or ML, I’ll leave you with this question:&lt;br&gt;
“Are we solving the right problems—or just the easy ones?” 🤔&lt;br&gt;
Real security isn’t about reacting to problems—it’s about being ready before they even happen. 🧠👣🚀&lt;/p&gt;

</description>
      <category>webdev</category>
      <category>programming</category>
      <category>ai</category>
      <category>devops</category>
    </item>
    <item>
      <title>MiniProject Tailtreats</title>
      <dc:creator>Salinthip</dc:creator>
      <pubDate>Sat, 07 Dec 2024 12:04:15 +0000</pubDate>
      <link>https://dev.to/salincalyna/miniproject-tailtreats-1p1m</link>
      <guid>https://dev.to/salincalyna/miniproject-tailtreats-1p1m</guid>
      <description>&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F8igzbmto5bk9thnuphh9.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F8igzbmto5bk9thnuphh9.png" alt="Image description" width="800" height="500"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;1. System Overview&lt;/strong&gt;&lt;br&gt;
Tailtreats is an e-commerce website project built using Next.js, Prisma, and TailwindCSS. It provides a platform for customers to purchase pet-related products such as food, toys, and snacks. The system also features an admin panel for managing product listings, customer interactions, and other key data. The website is designed to be responsive, supporting both mobile and desktop views.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;2. Important and Interesting Functions&lt;/strong&gt;&lt;br&gt;
Dynamic Routing with Next.js&lt;br&gt;
Tailtreats leverages Next.js's powerful dynamic routing system to handle different product categories and pages. Each folder in the app directory corresponds to a separate page on the website. For instance:&lt;/p&gt;

&lt;p&gt;app/page.tsx - Homepage&lt;br&gt;
app/products/cat.tsx - Cat-related products&lt;br&gt;
app/products/dog.tsx - Dog-related products&lt;br&gt;
This setup allows for easy expansion as new product categories or pages can be added simply by creating a new folder or file.&lt;/p&gt;

&lt;p&gt;Database Management with Prisma&lt;br&gt;
Tailtreats uses Prisma ORM to manage the SQLite database. Prisma helps efficiently handle CRUD operations for product listings, customer details, and user accounts.&lt;/p&gt;

&lt;p&gt;CRUD Operations: Admins can add, edit, and delete products from the database using Prisma.&lt;br&gt;
Data Validation: Input data is validated on both the frontend (via Zod) and the backend (via Prisma).&lt;br&gt;
User Authentication&lt;/p&gt;

&lt;p&gt;Customer Registration: Users can create accounts with their email and password.&lt;br&gt;
Customer Login/Logout: Registered users can log in to view and purchase products.&lt;br&gt;
Admin Authentication: Admin users can log in through a password-protected page to manage products.&lt;br&gt;
Reusable Components&lt;/p&gt;

&lt;p&gt;Tailtreats utilizes a modular design approach where reusable components such as navigation bars, product cards, and buttons are placed in the components directory. This reduces redundancy and maintains consistency across the application.&lt;/p&gt;

&lt;p&gt;Responsive Design with Tailwind CSS&lt;/p&gt;

&lt;p&gt;Tailtreats uses TailwindCSS for styling, ensuring that the design adapts seamlessly to different screen sizes. Using utility-first classes allows for fast and flexible layout design. Flexbox and Grid layouts are used throughout the project to ensure the UI is both functional and visually appealing.&lt;/p&gt;

&lt;p&gt;Product Management Dashboard (Admin View)&lt;/p&gt;

&lt;p&gt;Admins have a dedicated dashboard where they can:&lt;/p&gt;

&lt;p&gt;View a list of all products.&lt;br&gt;
Add new products.&lt;br&gt;
Edit or delete existing products. This functionality ensures that the website remains up-to-date with the latest product offerings.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;3. How to Use the System&lt;/strong&gt;&lt;br&gt;
For Customers&lt;/p&gt;

&lt;p&gt;Registration &amp;amp; Login:&lt;br&gt;
Customers can register on the homepage by entering their email and creating a password.&lt;br&gt;
After registration, they can log in using their credentials.&lt;br&gt;
Navigation:&lt;br&gt;
Once logged in, customers can browse the products by category (e.g., Cat Food, Dog Food, Snacks, Toys) via the navigation bar.&lt;br&gt;
On the product pages, customers can view details and add items to their cart.&lt;br&gt;
Checkout:&lt;br&gt;
After selecting products, customers can proceed to checkout where they can review their cart and complete the purchase.&lt;br&gt;
For Admins&lt;/p&gt;

&lt;p&gt;Admin Login:&lt;br&gt;
Admins can log in using a secure password.&lt;br&gt;
Manage Products:&lt;br&gt;
Admins can add new products to the store, edit existing product details (name, price, description), and delete products.&lt;br&gt;
View Orders:&lt;br&gt;
Admins can monitor and manage customer orders to ensure timely fulfillment.&lt;/p&gt;

</description>
      <category>webdev</category>
      <category>programming</category>
    </item>
  </channel>
</rss>
