0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

怎样在不使用Spark应用程序的情况下使Spark Core运行

454398 来源:网络整理 作者:佚名 2019-11-05 08:41 次阅读

步骤1:先决条件

Spark Core

这可能看起来很明显,但是假设使一个问题成为现实。该包装中包含USB微型连接器电缆,因此请确保也能触及该电缆。

通过WiFi连接到互联网的计算机

Core不能仅期望与本地WiFi交互。

串行通信软件

Windows :腻子

Mac和Linux :屏幕

USB串行驱动程序

这是Windows特定的问题。如果您已经在同一Windows机器上安装了Teensy甚至是Arduino,那么在通过USB连接Core时,您不需要做任何特别的事情。

请确保通过USB连接到笔记本电脑时,Core闪烁中速蓝色

Core中间的大RGB LED两侧各有两个按钮。如果USB微型插头面向12点钟,则“模式”按钮位于9点钟(即左侧),而“重置”按钮位于3点钟(右侧)。

如果Core呈绿色常亮,则它可能具有较旧的WiFi凭据。按住“模式”按钮10秒钟,它将清除其现有的WiFi凭据,然后重新启动。

步骤2:收集基于Web的激活的详细信息

请注意,大多数说明可从Spark网站获得。但是有一些跳跃的地方,因此将所有内容按执行顺序并显示在一个屏幕上要方便得多:

A)使用以下方法在https://www.spark.io/signup上创建一个帐户电子邮件地址。

注意事项:输入电子邮件地址时,请三重检查。如果拼写错误,Spark团队将没有自动解决系统。他们只能通过电子邮件解决问题,虽然他们非常有礼貌并且对此有所了解,但仍会花费一些时间;

B)将Core插入笔记本电脑的USB端口并发现其端口-

Windows:

打开设备管理器(devmgmt.msc);

转到“端口(COM和LPT)”,然后将其扭曲打开(如果尚未打开)。查找Spark或“通用USB串行”条目并记下COM号。

Mac:

上拉终端(打开一个Finder并搜索“/Applications/Utilities/Terminal”);

运行以下命令:ls -ltr /dev/cu.*

时间戳最近的项目将是列表中的最后一项。它的文件名应以“ cu.usbmodem”开头,然后包含几位数字。

Linux:

打开一个终端,然后运行:ls -l /dev/ttyACM*

C)使用发现的端口-

Windows:

打开腻子;

选择“ Serial”作为连接类型,将“ COM#”作为地址,将COM端口号指定为“#”,将9600作为速度。

Mac和Linux:

键入以下内容以确认通信程序在您的路径中-which screen

类型screen /dev/[cu.usbmodem*|ttyACM*] 9600

D)获取核心的标识符(序列号)并将其链接到WiFi-

在通信会话中输入“ i”;

它将以24个字符的十六进制唯一ID答复,最有可能以53或54开头,例如Your core id is 53ff6c06fe01dc23ba459867

将ID号复制为文本。在腻子中,只需单击并拖动ID即可将其复制。 将其粘贴到文本文件中以确保安全;

返回到通信会话,然后键入“ w”。核心将切换为稳定的蓝灯,而通信会话将提示输入SSID(区分大小写),安全性和密码;

成功的尝试应类似于此页面上的最后一个屏幕截图。

步骤3:使用网站激活:将序列号链接到Spark帐户

登录回到Spark IDE网站:https://www.spark.io/login;

在IDE的左窗格中,从底部查找第二个图标(它将看起来像一个目标)。将鼠标悬停在其上将显示“ Cores”一词。单击此按钮;

单击黄色的“添加新核心”按钮。这将启动一个弹出窗口;

从通信会话中粘贴ID号,然后单击“声明!”。按钮;

最后一步将提供一个半随机名称。接受默认值或对其进行更改,然后单击以命名。

步骤4:回到Web IDE并开始编码

在Mac和Linux中,WiFi步骤成功后,屏幕会话应自动关闭;如果不是,请使用 control-a 然后使用 control-k 从其中取消屏幕会话。在Windows中,关闭Putty会话是安全的。

现在是时候编写代码并使Spark Core投入工作了:

https://www.spark.io/login

已经熟悉IDE的人应该很自在。同样的人可能还会想知道为什么仍然连接到USB端口的设备的所有代码都需要从附近的Web服务器发送给它的代码。

一个答案是Spark Core是只寻找USB电源。只要Core仍与笔记本电脑连接到同一WiFi路由器,就可以在范围内的任何位置对其进行重新编程

另一个答案是安装Spark CLI工具和Spark Dev IDE,或者甚至设置了单独的Spark Source环境。这些将需要等待将来的Instructable。
责任编辑:wv

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Core
    +关注

    关注

    0

    文章

    174

    浏览量

    42930
收藏 人收藏

    评论

    相关推荐

    请问DAC37J82不使用DAC PLL的情况下,寄存器的配置顺序应该怎样呢?

    请问DAC37J82不使用DAC PLL的情况下,寄存器的配置顺序应该怎样呢?有没有推荐的寄存器配置顺序表?
    发表于 11-26 06:04

    spark为什么比mapreduce快?

    mapreduce快的原因有以下几点: 1:DAG相比hadoop的mapreduce大多数情况下可以减少磁盘I/O次数 因为mapreduce计算模型只能包含
    的头像 发表于 09-06 09:45 258次阅读

    plc什么情况下会导致程序丢失

    PLC(Programmable Logic Controller,可编程逻辑控制器)是一种广泛应用于工业自动化领域的设备。它通过执行用户编写的程序来实现对机械设备的控制。然而,某些情况下,PLC
    的头像 发表于 08-19 09:14 1321次阅读

    广汽能源与泰国Spark EV签订合作框架协议

    近日,广汽能源科技(泰国)有限公司与Spark EV Co.Ltd.宣布达成重要合作,双方共同签署了一项合作框架协议,旨在泰国境内全面布局并运营超级充电场站,为新能源汽车的普及与发展注入强劲动力。
    的头像 发表于 07-19 17:08 860次阅读

    esp-wroom-32如何在不使用wifi功能的情况下获取mac地址?

    你好 我想检查 esp-wroom-32 模块的mac_address。 我已经通过初始化wifi然后调用函数来esp_get_mac检查了它。 但是,如果我想在不使用 wifi 功能的情况下获取该 mac 地址。 有没有其他方法可以检查MAC地址。
    发表于 07-19 09:37

    spark运行的基本流程

    记录和分享spark运行的基本流程。 一、spark的基础组件及其概念 1. ClusterManager Standalone模式中即
    的头像 发表于 07-02 10:31 402次阅读
    <b class='flag-5'>spark</b><b class='flag-5'>运行</b>的基本流程

    Spark基于DPU的Native引擎算子卸载方案

     和 R 等多种高级编程语言,这使得Spark可以应对各种复杂的大数据应用场景,例如金融、电商、社交媒体等。 Spark 经过多年发展,作为基础的计算框架,不管是
    的头像 发表于 06-28 17:12 562次阅读
    <b class='flag-5'>Spark</b>基于DPU的Native引擎算子卸载方案

    关于Spark的从0实现30s内实时监控指标计算

    前言 说起Spark,大家就会自然而然地想到Flink,而且会不自觉地将这两种主流的大数据实时处理技术进行比较。然后最终得出结论:Flink实时性大于Spark。 的确,Flink中的数据计算
    的头像 发表于 06-14 15:52 442次阅读

    Spark+Hive”DPU环境的性能测评 | OLAP数据库引擎选型白皮书(24版)DPU部分节选

    奇点云2024年版《OLAP数据库引擎选型白皮书》中,中科驭数联合奇点云针对Spark+Hive这类大数据计算场景的主力引擎,测评DPU环境对比CPU环境
    的头像 发表于 05-30 16:09 516次阅读
    “<b class='flag-5'>Spark</b>+Hive”<b class='flag-5'>在</b>DPU环境<b class='flag-5'>下</b>的性能测评 | OLAP数据库引擎选型白皮书(24版)DPU部分节选

    Spark基于DPU Snappy压缩算法的异构加速方案

    一、总体介绍 1.1 背景介绍 Apache Spark是专为大规模数据计算而设计的快速通用的计算引擎,是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些不同之处使
    的头像 发表于 03-26 17:06 791次阅读
    <b class='flag-5'>Spark</b>基于DPU Snappy压缩算法的异构加速方案

    RDMA技术Apache Spark中的应用

    、电信、零售、医疗保健还是物联网,Spark的应用几乎遍及所有需要处理海量数据和复杂计算的领域。它的快速、易用和通用性,使得数据科学家和工程师能够轻松实现数据挖掘、数据分析、实时处理等任务。 然而,Spark的灿烂光环背后,一
    的头像 发表于 03-25 18:13 1536次阅读
    RDMA技术<b class='flag-5'>在</b>Apache <b class='flag-5'>Spark</b>中的应用

    基于DPU和HADOS-RACE加速Spark 3.x

    、Python、Java、Scala、R)等特性大数据计算领域被广泛使用。其中,Spark SQL 是 Spark 生态系统中的一个重要组件,它允许用户以结构化数据的方式进行数据处理,提供了强大
    的头像 发表于 03-25 18:12 1346次阅读
    基于DPU和HADOS-RACE加速<b class='flag-5'>Spark</b> 3.x

    是否可以不使用freeRTOS的情况下运行Infenion AIROC蓝牙包来配置CY43439?

    是否可以不使用 freeRTOS 的情况下运行 Infenion AIROC 蓝牙包来配置 CY43439(将 CY43439 与 STM32H753 连接)?
    发表于 03-06 06:02

    TC397不使能SWAP功能的情况下,对UCB_SWAP_ORIG/_COPY操作会锁芯片吗?

    我想测试一对UCB_SWAP_ORIG/_COPY的写入/擦除操作,请问不使能SWAP的情况下,对芯片的这种操作是否会锁片。
    发表于 02-05 08:04

    PSoC4固件更新,应用程序无法启动是为什么?

    我正在使用 CY8CKIT-148 (PSoC CY8C4147AZI-S475),并且我正在尝试不使用DFU库的情况下使固件更新正常工作。 唯一的区别是我没有使用 DFU 协议。下
    发表于 01-30 06:38