当前位置: 首页 > news >正文

工商网站备案办法青岛代理记账公司有哪些

工商网站备案办法,青岛代理记账公司有哪些,常用的网络推广手段有哪些,网站的icp是什么意思一、说明 本篇在此对自然语言模型做一个简短总结#xff0c;从CNN\RNN\变形金刚#xff0c;和抱脸的变形金刚库说起。 二、基本前馈神经网络#xff1a; 让我们分解一个基本的前馈神经网络#xff0c;也称为多层感知器#xff08;MLP#xff09;。此代码示例将#xff1… 一、说明 本篇在此对自然语言模型做一个简短总结从CNN\RNN\变形金刚和抱脸的变形金刚库说起。 二、基本前馈神经网络         让我们分解一个基本的前馈神经网络也称为多层感知器MLP。此代码示例将 定义神经网络的架构。初始化权重和偏差。使用 sigmoid 激活函数实现前向传播。使用均方误差损失函数实现训练的反向传播。演示在简单数据集上的训练。 import numpy as npclass NeuralNetwork:def __init__(self, input_size, hidden_size, output_size):# Initialize weights and biases with random valuesself.weights1 np.random.randn(input_size, hidden_size)self.weights2 np.random.randn(hidden_size, output_size)self.bias1 np.random.randn(1, hidden_size)self.bias2 np.random.randn(1, output_size)def sigmoid(self, x):return 1 / (1 np.exp(-x))def sigmoid_derivative(self, x):return x * (1 - x)def forward(self, X):self.hidden self.sigmoid(np.dot(X, self.weights1) self.bias1)output self.sigmoid(np.dot(self.hidden, self.weights2) self.bias2)return outputdef train(self, X, y, epochs, learning_rate):for epoch in range(epochs):# Forward propagationoutput self.forward(X)# Compute errorerror y - output# Backward propagationd_output error * self.sigmoid_derivative(output)error_hidden d_output.dot(self.weights2.T)d_hidden error_hidden * self.sigmoid_derivative(self.hidden)# Update weights and biasesself.weights2 self.hidden.T.dot(d_output) * learning_rateself.bias2 np.sum(d_output, axis0, keepdimsTrue) * learning_rateself.weights1 X.T.dot(d_hidden) * learning_rateself.bias1 np.sum(d_hidden, axis0, keepdimsTrue) * learning_rate# Print the error at every 1000 epochsif epoch % 1000 0:print(fEpoch {epoch}, Error: {np.mean(np.abs(error))})# Sample data for XOR problem X np.array([[0, 0], [0, 1], [1, 0], [1, 1]]) y np.array([[0], [1], [1], [0]])# Create neural network instance and train nn NeuralNetwork(input_size2, hidden_size4, output_size1) nn.train(X, y, epochs10000, learning_rate0.1)# Test the neural network print(Predictions after training:) for data in X:print(f{data} {nn.forward(data)}) 在这个例子中我们使用神经网络来解决异或问题这是一个单层感知器无法解决的经典问题。 这种前馈神经网络只有一个隐藏层这使得它能够学习非线性关系。调整隐藏层大小、学习率和周期数等参数会影响神经网络的性能和准确性。 三、卷积神经网络 CNN CNN 专为图像处理而设计包括称为卷积层的层这些层对输入数据应用卷积运算强调局部特征。 3.1 CNN的基本结构         以下是使用 TensorFlow 和 Keras 库的基本卷积神经网络 CNN 的更全面实现。此示例将 加载 MNIST 数据集这是一个用于手写数字识别的常用数据集。对数据进行预处理。定义基本的 CNN 架构。使用优化器、损失函数和度量编译模型。在 MNIST 数据集上训练 CNN。评估经过训练的 CNN 在测试数据上的准确性。 3.2 相关代码实现 # Import necessary libraries import numpy as np import tensorflow as tf from tensorflow.keras.datasets import mnist from tensorflow.keras.utils import to_categorical# Load and preprocess the dataset (train_images, train_labels), (test_images, test_labels) mnist.load_data() train_images train_images.reshape((60000, 28, 28, 1)).astype(float32) / 255 test_images test_images.reshape((10000, 28, 28, 1)).astype(float32) / 255train_labels to_categorical(train_labels) test_labels to_categorical(test_labels)# Define the CNN architecture model tf.keras.Sequential([tf.keras.layers.Conv2D(32, (3, 3), activationrelu, input_shape(28, 28, 1)),tf.keras.layers.MaxPooling2D(2, 2),tf.keras.layers.Conv2D(64, (3, 3), activationrelu),tf.keras.layers.MaxPooling2D(2, 2),tf.keras.layers.Conv2D(64, (3, 3), activationrelu),tf.keras.layers.Flatten(),tf.keras.layers.Dense(64, activationrelu),tf.keras.layers.Dense(10, activationsoftmax) ])# Compile the model model.compile(optimizeradam, losscategorical_crossentropy, metrics[accuracy])# Train the model model.fit(train_images, train_labels, epochs5, batch_size64)# Evaluate the models accuracy on the test data test_loss, test_acc model.evaluate(test_images, test_labels) print(fTest accuracy: {test_acc}) 在此示例中基本 CNN 有三个卷积层后跟最大池化层。在卷积层之后我们将输出展平并将其传递到两个密集全连接层。 最后的密集层有 10 个神经元每个神经元代表一个从 0 到 9 的数字具有 softmax 激活函数来产生类概率。 这是MNIST数据集的一个简单而有效的CNN。您可以通过添加更多层、使用正则化 dropout 等技术或采用高级优化技术来进一步改进网络。 四、循环神经网络 RNN RNN 旨在识别数据序列中的模式例如文本或时间序列。它们保留对先前输入的记忆。 4.1 基本RNN结构         让我们使用 TensorFlow 和 Keras 创建一个基本的递归神经网络 RNN。此示例将演示 加载序列数据集我们将使用 IMDB 情感分析数据集。预处理数据。定义一个简单的 RNN 架构。使用优化器、损失函数和度量编译模型。在数据集上训练 RNN。评估经过训练的 RNN 在测试数据上的准确性。 4.2 相关代码实现 # Import necessary libraries import tensorflow as tf from tensorflow.keras.datasets import imdb from tensorflow.keras.preprocessing.sequence import pad_sequences# Constants VOCAB_SIZE 10000 MAX_LEN 500 EMBEDDING_DIM 32# Load and preprocess the dataset (train_data, train_labels), (test_data, test_labels) imdb.load_data(num_wordsVOCAB_SIZE)# Pad sequences to the same length train_data pad_sequences(train_data, maxlenMAX_LEN) test_data pad_sequences(test_data, maxlenMAX_LEN)# Define the RNN architecture model tf.keras.Sequential([tf.keras.layers.Embedding(VOCAB_SIZE, EMBEDDING_DIM, input_lengthMAX_LEN),tf.keras.layers.SimpleRNN(32, return_sequencesTrue),tf.keras.layers.SimpleRNN(32),tf.keras.layers.Dense(1, activationsigmoid) ])# Compile the model model.compile(optimizerrmsprop, lossbinary_crossentropy, metrics[accuracy])# Train the model model.fit(train_data, train_labels, epochs10, batch_size128, validation_split0.2)# Evaluate the models accuracy on the test data test_loss, test_acc model.evaluate(test_data, test_labels) print(fTest accuracy: {test_acc}) 在此示例中我们首先使用嵌入层将整数序列转换为固定大小的密集向量。然后两个 RNN 层处理序列。 具有 sigmoid 激活函数的最后一个密集层输出一个概率指示评论的情绪0 表示负面1 表示正面。 值得注意的是在实际应用中您可能需要考虑使用更高级的递归层如 LSTM 或 GRU因为它们可以比基本 RNN 更好地捕获远程依赖关系。 此外可以根据特定的应用程序和数据集对超参数如 、 和进行微调以获得最佳结果。VOCAB_SIZEMAX_LENEMBEDDING_DIM 五、变形金刚 Transformer 最初是为自然语言处理任务而设计的具有自注意力机制允许它们权衡输入不同部分的重要性。 5.1 Transformer 片段使用 Hugging Face 的 Transformers 库 Hugging Face 的 Transformers 库使使用 BERT、GPT-2 等 Transformer 架构变得非常容易。让我们创建一个基本示例 加载用于文本分类的预训练 BERT 模型。标记化一些输入句子。通过 BERT 模型传递标记化输入。输出预测的类概率。 5.2 相关代码实现         在本演示中让我们使用 BERT 模型进行序列分类 # Installation (if you havent done it yet) #!pip install transformers# Import required libraries from transformers import BertTokenizer, BertForSequenceClassification import torch# Load pretrained model and tokenizer model_name bert-base-uncased model BertForSequenceClassification.from_pretrained(model_name, num_labels2) # For binary classification tokenizer BertTokenizer.from_pretrained(model_name)# Tokenize input data input_texts [I love using transformers!, This library is difficult to understand.] inputs tokenizer(input_texts, return_tensorspt, paddingTrue, truncationTrue, max_length512)# Forward pass: get model predictions with torch.no_grad():outputs model(**inputs)logits outputs.logitsprobabilities torch.nn.functional.softmax(logits, dim-1)# Display predicted class probabilities print(probabilities) 此脚本初始化用于二进制序列分类的 BERT 模型对输入句子进行标记然后根据模型的对数进行预测。 最终输出 包含输入句子的预测类概率。probabilities 请注意此模型已针对二元分类使用 进行了初始化因此它最适合情绪分析等任务。num_labels2 对于多类分类或其他任务您可以调整并可能选择不同的预训练模型或者在特定数据集上微调模型。num_labels 六、结论         深度学习的世界是广阔的正如所展示的那样其算法可能会根据其应用领域变得复杂。然而多亏了 TensorFlow 和 Hugging Face 等高级库使用这些算法变得越来越容易。 旅程
http://www.w-s-a.com/news/446056/

相关文章:

  • xss网站怎么搭建如何用wordpress站群
  • 怎样做网站外链supercell账号注册网站
  • 阿里巴巴网站是用什么技术做的哪些网站做推广比较好
  • 做网站go和python手机如何创网站
  • 网站开发进修网站做301将重定向到新域名
  • 公司网站开发费用账务处理ucenter wordpress
  • 六站合一的优势少儿编程机构
  • 软件开发与网站开发学做美食网站哪个好
  • 网站搜索 收录优化百度推广页面投放
  • 响应式网站的优点浙江省网站域名备案
  • 网站安全 扫描深圳被点名批评
  • 在哪个网站可以一对一做汉教网站优化策略
  • 龙岩做网站的顺企网宁波网站建设
  • 昆山网站建设河北连锁餐厅vi设计公司
  • 新蔡县住房和城乡建设局网站南昌租房网地宝网
  • 南宁做网站费用iis编辑网站绑定
  • 家用宽带做网站服务器建网站费用明细
  • 电商 网站 降低 跳出率 措施 效果书画院网站模板
  • 兰州移动官网网站建设上海工商网上公示系统
  • 在招聘网站里做电话销售免费空间可以上传网站吗
  • 梅州建站怎么做中国建设银行官网下载
  • 网站静态化设计广州网站备案方案
  • 西安网络技术有限公司网站扬中网站建设方案
  • 青海省教育厅门户网站wordpress core
  • idc科技公司网站模板蜜雪冰城网络营销案例分析
  • 微信与网站对接手机软件怎么做
  • 户县网站建设珠海专业制作网站
  • 麦当劳的网站优化建议猎头公司工作怎么样
  • 合肥地区网站制作网页浏览器打不开
  • 做网站的不给ftp网站如何做触屏滑动