原文标题:《UsingOn-ChainDataforPolicyResearch:Part1》
原文作者:BrendanMalone,Paradigm
原文编译:Kxp,BlockBeats
政策在制定时很少会用到真实且细化的数据,原因主要有以下三点:
1.新兴技术领域的相关政策大多还停留在理论及定性分析层面,早期阶段很少会使用到数据。
2.尽管链上数据全部开放透明,但要想访问这些数据人们需要在短期内完成大量工作,即便对于Crypto原生从业者来说也是如此。
3.区块链「取证」公司和数据供应商有少量的数据产品,但它们都不具备灵活性/可定制性,也不能满足经济/金融研究人员的需求。
许多现代经济学和金融学研究人员错过了将工具应用于Crypto数据分析的机会。从设计上讲,Crypto可以向任何人提供细化数据,但大部分政策在制定时仍依赖于CoinMarketCap等外部预聚合时间序列数据源,而不是直接从数据源获取数据,这又是什么原因导致的呢?
CleanSpark二季度收入4550万美元,同比增幅47%:金色财经报道,CleanSpark 发布了截至2023 年 6 月 30 日 的三个月财务业绩,该季度的收入为 4550 万美元 ,比去年同期的3100 万美元增加了1450 万美元 , 增幅为47%。截至2023 年 6 月 30 日的季度净亏损为 (1,420 万美元) ,而上年同期的净亏损为 (2,930 万美元) 。公司现金为 2180万美元,持有的比特币价值为1390万美元。
首席执行官Zach Bradford表示:“我们已为运营哈希率增长至 16 EH/s 提供了充足的资金,包括矿机、设施和其他基础设施,季度增长和收入均创历史新高”。[2023/8/10 16:16:41]
正如政策制定者可以查询美国每家主要银行的资产负债表,并逐秒观察消费者存款的变化一样,他们也可以毫不费力地查看整个Ethereum生态系统的Stablecoin发行情况,但大多数分析Stablecoin的政策文件却采取了一种探讨假设事件的分析方法。
我将在本篇中具体阐释以下几点内容,希望可以对想要使用链上数据的政策研究人员有所帮助:
数据:Paradigm可能已经出售所有MKR并实现约1716万美元利润:金色财经报道,据Spot On Chain监测,Paradigm6小时前以1,187美元的单价(356万美元)将3000枚MKR转至Coinbase,MKR价格短线出现下跌后现已回升。Paradigm可能已经出售了所有MKR并实现了约1716万美的利润。
Paradigm的MKR投资总成本共2205万美元;2019年2月以500美元从Bitfinex买入1000枚MKR,在2019年私募中以500美元购买了35,908枚MKR,在2020年3月的拍卖中使用360万枚DAI购买了14,272枚MKR。
Paradigm的MKR总出售额为3921万美元,其中,3月16日以平均740美元的价格向Coinbase存入4800枚MKR资金,6小时前以1,187美元存入3000枚MKR至Coinbase。[2023/7/27 16:01:56]
链上数据的获取方法
链上数据所采用的结构
提取和使用链上数据的几个基本工具
MakerDAO社区参与者提议创建以DAI为重点的新流动性市场Spark Protocol:2月9日消息,最新成立的一家研发公司Phoenix Labs在MakerDAO社区发起了一项新治理提案,提议创建一个名为Spark Protocol的新流动性市场,用于借贷以DAI为重点的加密资产。第一个产品将是Spark Lend,它将允许用户以设定的DAI储蓄率借入DAI,目前该利率为1%。根据提案,Spark Lend将支持高流动性的去中心化资产作为抵押品,例如ETH、DAI以及质押的ETH (wstETH)和 BTC (wBTC)的封装衍生品。未来的功能将包括固定期限收益产品和包含Maker 自己的合成液体质押衍生品(LSD),称为EtherDAI。
根据提案,Spark的目标是在今年4月推出,在Maker上开设一个债务上限为2亿美元的DAI借贷金库。Spark将使用Aave v3的智能合约系统。作为交换,开发团队Phoenix Labs打算在未来两年内将该协议在Spark Protocol的DAI市场上赚取的利润的10%发送给Aave DAO。实施Spark Protocol取决于Maker社区的投票。(CoinDesk)[2023/2/9 11:56:06]
在随后的文章中,我将探讨如何使用这里收集的数据来判断Crypto市场的走势。同时,我将在结尾发布可供免费使用的数据和代码。通过阐明如何在区块链中查询数据,我希望向大家展示Crypto的开放性可以为数据决策开辟的新方法。
通过ICO融资超3000万美元的Sparkster将超2200万美元的以太坊交易为USDC:5月23日消息,2018年通过ICO融资超3000万美元的“无代码”软件平台Sparkster于周末将超2200万美元的以太坊交易为USDC。该项目在2018年7月通过ICO融资后并未将SPRK代币分配给投资者,且项目开发等方面进展一直处于停止状态,其Github上一次活动还是在2019年3月,而周末发生转账的钱包上一次活动发生在2018年8月。Twitter用户gregskril.eth表示希望Circle将这些USDC放入用于冻结的黑名单中。(CoinDesk)[2022/5/23 3:36:35]
如果您就职于一家监管机构或研究机构,并在获取Crypto数据时遇到了困难,欢迎与我们取得联系分享你的想法,了解Paradigm可以为您提供哪些帮助。
USDC、Tether、BinanceUSD、PaxDollar和GeminiDollar。该方法广泛适用于链上数据,即便你想创建一个不同的数据集。
Etherscan这类区块浏览器非常适用于查看交易快照以及收集特定智能合约的信息,但根据我的经验,它们却不太能用于生成大型数据集。在收集和处理原始数据时,你基本上有两个选择:在本地运行一个完整的节点,或查询已经从链上直接写入原始数据的数据库。第一种方法对于专业技能和计算资源的要求比较高,而第二种方法则只需要基本的SQL和Python技能就可以实现,所以这里我们将采用第二种方法。
ParaFi Capital资产管理规模超1亿美元 至少投资22家公司或协议:据The Block统计,总部位于旧金山、专注于区块链技术和去中心化金融市场的投资公司ParaFi Capital当前管理的资产超过1亿美元。目前该公司至少已向22家初创公司和协议部署了资金,涵盖了资产交易、稳定币、借贷、基础设施等9个垂直领域,其中不乏Uniswap、1inch、AAVE和The Block等项目或团队。据了解,该基金创始人本·福尔曼 (Ben Forman) 曾在私人股本公司KKR和TPG资本担任高管。[2020/12/28 15:51:00]
Dune和谷歌云平台的BigQuery有最新的链上数据,这些数据都以表格的形式存储在数据库中,研究人员可使用SQL命令对其进行查询。Dune还提供免费的数据库,不过其速度较慢,而且还有些局限性,但它非常适合于A/B测试的数据查询,也有助于你熟悉数据库的运行模式,尤其是对于那些不善于使用SQL查询关联数据库的人。BigQuery虽然更加灵活快捷,但谷歌会对计算资源收费,所以其价格也相对昂贵。我在第一次处理数据时,为了节省费用,我会先在Dune中测试查询语句,然后再将其输入GCP中运行。在大多数情况下,这种方法都能起到很好的效果
III.链上数据结构
要回答这个问题,你首先需要搞清楚自己处理数据的目的。对于这个测试案例,我决定为主要的法定支持Stablecoin建立一个大型的时间序列数据集,并观察一些特定的行为:铸币,烧毁(即停止流通Stablecoin)和转移。我之所以选择以这种方式进行研究,是因为政策制定者和学者目前最为关注法定支持的Stablecoin,所以这些数据在短期内可能相当有用。
以美元计价的几大Stablecoin都采用了ERC-20Token标准。顾名思义,ERC-20是一种在Ethereum上使用智能合约创建Token的标准化方式。如果你把区块链理解为一个巨大的去中心化Excel表格,那么智能合约就类似于Excel函数。在函数中输入参数之后,它将使用其内置逻辑产生一个特定的输出结果。
我们可以使用智能合约的Ethereum地址来对它们进行定位,这些地址是区块链数据结构中的唯一标识符:
USDC
TetherUSD
BinanceUSD
PaxDollar
GeminiDollar
与API类似,智能合约也是可以重复使用的程序。每次智能合约获得互动指令时,都会产生该互动的记录,并由Ethereum协议以日志的形式记录在区块链上,而这些日志则构成了智能合约活动的可靠信息来源。
当智能合同执行一个特定函数时,例如烧毁ERC-20Stablecoin以将其从流通中移除,该函数及其参数将作为交易日志记录在区块链上。
在下面的交易中,USDCStablecoin的发行商Circle烧毁了价值1056.92美元的USDC。
如果你切换到「日志」标签,你就可以查看交易事件日志,相应的字段为
地址:智能合约的合约地址。USDCStablecoin的合约地址是0xa0b86991c6218b36c1d19d4a2e9eb0ce3606eb48。
名称:智能合约执行的函数,以及该函数中的参数。在这里,智能合约正在调用烧毁函数,该函数接收的参数指定了所烧毁币的发送地点和烧毁币的数量。
Etherscan的输出结果还会显示主题和数据字段,这些字段包含了我们在分析交易时需要解析的大部分相关信息。
Topic0是函数签名的哈希值。从本质上讲,它会将函数及其参数经由单向算法得到一个唯一的函数哈希值。Ethereum使用的是Keccak-256哈希函数,当你通过Keccak-256算法输入函数签名时,它总是会产生相同的哈希值,所以任何时候该哈希值出现在日志中,你都能确信是调用了同一个函数。
Topic1是烧毁函数的一个索引参数。在这里,Topic1是烧毁的Token被发往的地址。(注意:如果烧毁函数有更多的参数,这些参数将作为额外的主题出现)
这里的数据字段表示所烧毁Token的数量。
既然我们已经了解了链上数据的基本结构,就可以开始从Dune和GCP中提取数据了。
IV.提取并处理链上数据的基本工具
如前所述,在这个例子中,我选择从现有数据库中提取链上数据,而不是访问Ethereum网络上的活动节点。为了便于理解,我使用SQL从GCP提取了大量原始数据表格,然后在Python中使用pandas库对其进行清理。
当我们从GCP提取表格时,我们将使用BigQuery,它储存有很多Ethereum的数据表,如下图左边一栏所示。当你点击一个表格时,相应的数据库模式就会出现,就如下图中的ethereum.logs表。与此同时,其中涉及的地址、数据和主题都会记录到日志数据中去。
下图中的查询语句将用于提取日志表中涉及与USDC、TetherUSD、BinanceUSD、PaxDollar或GeminiDollar合约互动的所有记录。除了ethereum.logs中的信息外,一些额外的信息也很有用,所以我还合并了ethereum.block表中的数据,其中涵盖了Gas费等信息。
得到的表格可以直接由Python读取,并借助pandas数据框架细分为以下字段:
log_index
transaction_hash
transaction_index
address
data
topics
block_timestamp
block_number
block_hash
number
miner
size
gas_limit
gas_used
base_fee_per_gas
这些字段中的大多数都可以直接使用,不过第三节中讨论的主题字段需要用Python进行一些额外的清理,以便将其分成多列。
原文链接
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。