CacheLab CacheLabLab概述:在本实验中,学生将处理两个名为 csim.c 和 trans.c 的 C 文件。实验分为两部分: (a) 部分涉及在 csim.c 中实现缓存模拟器。 (b) 部分涉及编写一个函数,该函数计算给定矩阵的转置,目标是减少模拟缓存中的未命中次数。 相关工具:使用autograders需要执行以下指令,首先需要编译: 12make cleanmake 检查缓存模拟器的正确性 2024-09-10 CMU15-213
ArchLab ArchLabLab概述:在本实验中,学生将学习设计和实现一个流水线化的 Y86-64 处理器,优化其在名为 ncopy.ys 的基准 Y86-64 数组复制程序上的性能。学生可以对基准程序进行任何语义保留的转换,或对流水线处理器进行增强,或同时进行两者。目标是最小化每个数组元素的时钟周期数 (CPE)。 该Lab分为三个部分。在 A 部分中,将编写一些简单的 Y86-64 程序并熟悉 Y86-6 2024-08-26 CMU15-213
AttackLab AttackLabLab概述:学生们将获得名为 ctarget 和 rtarget 的二进制文件,这些文件存在缓冲区溢出漏洞。他们被要求通过五种日益复杂的攻击来改变目标的行为。对 ctarget 的三种攻击使用代码注入。对 rtarget 的两种攻击使用面向返回编程。实验室提供以下资源: **ctarget**:一个具有代码注入漏洞的 Linux 二进制文件,用于第 1-3 阶段的实验。 **r 2024-08-16 CMU15-213
BombLab BombLabLab概述:“二进制炸弹”是一个 Linux 可执行的 C 程序,包含六个“阶段”。每个阶段期望学生在标准输入上输入特定字符串。如果学生输入了预期的字符串,则该阶段被“拆除”。否则炸弹会通过打印“BOOM!!!”来“爆炸”。学生的目标是尽可能多地“拆除”该炸弹。 因此,本Lab聚焦于利用gdb等调试器来反编译二进制文件,并逐步执行每个阶段的机器代码,利用学习的汇编知识来拆解隐藏在代码 2024-07-07 CMU15-213
DataLab DataLab作为CMU15-213的第一个lab,datalab也主要关注“data”层面的知识:位、整数、浮点数、逻辑运算、位运算等。 由于笔者在学这门课之前有一定的数电知识,所以对这一节的知识较为熟悉,有些解题思路也来源于数电中的一些知识诸如布尔代数、De Morgan’s Law等。 在开始之前,先Log一下Lab的食用方式。 餐前准备lab通常在Linux环境下完成,默认为32位系统,在 2024-07-01 CMU15-213
CMU15-213 本篇主要记录在学习课程CMU15-213(version:sp23)以及配套教材CS:APP中的总结、梳理、拓展以及个人感想。Lab部分会记录解题思路在另外部分。 Overview 对应CS:APP第一章 让我们从详细理解一段代码的生命周期开始深入了解计算机在这一过程中完成了哪些操作。 1234567#include <stdio.h>int main() { pri 2024-06-25 CMU15-213
GNN——图神经网络 Graph首先,我们来了解一下什么是Graph。一般而言,图由三部分组成: V Vertex(or node) attributes,节点 子属性包括节点标识,节点邻居数 E Edge(or link) attributes and directions,边 子属性包括边标识,边权重。边可以包括有向边和无向边,有向边表示信息单方向流入,即从源节点流向目标节点;而无向边可以看为两个有向 2024-03-20 Deep Learning
T5 IntroductionT5 的基本思想是将每个 NLP 问题都视为“text-to-text”问题,即将文本作为输入并生成新的文本作为输出,这允许将相同的模型、目标、训练步骤和解码过程,直接应用于每个任务。 模型和框架称为 “Text-to-Text Transfer Transformer”——T5。 EmbeddingT5模型的结构基于传统Transformer模型。但Transformer 2024-03-19 Deep Learning
CNN——卷积神经网络 卷积神经网络(CNN)概述整体架构分为: 输入层 卷积层 池化层 全连接层 激活函数 卷积神经网络由一个或多个卷积层、池化层以及全连接层等组成。与其他深度学习结构相比,卷积神经网络在图像等方面能够给出更好的结果。 卷积层卷积运算若一个 6*6的单通道图像与一个 3*3的卷积核进行卷积运算,那么从图像的左上角开始选取3*3的区域,将该区域的矩阵与卷积核的对应位置的元素相乘求和得到的结果便为输出 2024-03-18 Deep Learning
BERT BERT简述BERT的全程为 Bidirectional Encoder Representation from Transformers ,是一个基于 Transformer 模型的预训练语言表征模型。 BERT强调不再采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的 masked language model(MLM) 以生成深度的双向语言表征。 BERT 2024-03-18 Deep Learning