在不重新启动的情况下动态更新VM的磁盘大小
首先从控制台增加磁盘大小
虚拟机内部的SSH:sudogrowpart/dev/sda1
调整文件系统的大小:sudo resize2fs/dev/sda1
验证:df-h
这可能是的副本,也请查看张贴在那里的答案,如果足够,请关闭此问题。非常感谢。这非常有效。如果你问我:)你是一个真正的英雄,他们应该把这个放到他们的维基页面上!这是我以前使用过的方法,尽管我刚刚发现了一个基于XFS的Centos-7系统,所以使用XFS\u growfs/dev/sd
我想使用jcloudapi在googlecloud中添加并列出我的项目下的所有实例/VM。在这段代码中,我假设一个节点是一个实例。
我已经根据需要设置了所有变量,并从json文件中提取了私钥。上下文构建成功进行
images=compute.listImages()=>列出谷歌提供的所有图像
nodes=compute.listNodes()=>应列出节点,但应给出空指针异常。
输出=>
图像数量246
线程“main”java.lang.NullPointerException:组中出现异常
我已将Google Cloud SDK从更新到最新版本135.0.0
更新之后,我收到了以下消息
警告:上有旧版本的Google云平台工具
您的系统路径。请删除以下内容以避免意外
调用这些旧工具:
/usr/bin/git-credential-gcloud.sh
/usr/bin/bq
/usr/bin/gcloud
/usr/bin/gsutil
所以我删除了上面所有的文件夹
此后,gsutil停止工作
请帮助我如何解决此问题。通过
sudo apt-get update &&
我们发现BigQuery在大于100M行的数据集上工作得非常好,而“初始化时间”实际上并没有生效(或者与查询的其余部分相比可以忽略不计)
然而,在任何情况下,性能都非常缓慢和差,这使得它(1)不适合在交互式BI工具中工作;(2)低于其他产品,如红移,甚至ElasticSearch,其中数据大小在100M行以下。事实上,我们公司的一位工程师正在评估一项技术,该技术用于为一款拥有约1000名用户的分析产品查询100万到100万行之间的数据,他的反馈是他无法相信BigQuery的速度有多慢
在没有为B
我是谷歌云的新手。。我没有意识到Google Cloud Shell机器上的可用空间,最终运行docker compose命令,这消耗了大量空间。现在,shell机器不断地向我返回这样的错误
bash: cannot create temp file for here-document: no space left on device
我检查了使用量,结果显示100%已使用
$ df -h /tmp
Filesystem Size Used Avail Use% Mounted o
我正在尝试通过VPN将我的谷歌云VPC连接到安全网络
我无法连接,日志显示以下内容:
D generating IKE_AUTH response 1 [ N(AUTH_FAILED) ]
D no matching peer config found
D looking for peer configs matching YYY.YYY.YYY.YYY[%any]...XXX.XXX.XXX.XXX[192.168.0.2]
D parsed IKE_AUTH request 1
我想知道是否可以直接在Google数据流平台中缓存数据集(就像在Spark中缓存RDD一样)
如果没有这样的功能,Dataflow如何在应用程序中选择热数据集,特别是如果您有多个热数据集,并且希望根据数据集的重要性对缓存进行优先级排序 数据流的执行模型与Spark非常不同。在Spark中,中心概念是RDD,使用RDD的典型模式是以不可预知的方式交互查询它;因此,RDD需要缓存,可能由用户控制
在Dataflow(apachebeam)中,核心概念是一个管道,作为一个整体构建、优化和执行,其中PC
几周前,我部署了一个模型,但我不知道该模型需要哪些输入功能(是的,我知道我应该更好地了解这一点)。当我运行以下命令时
gcloud ml-engine predict \
--model $MODEL_NAME \
--version v1 \
--json-instances \
../test.json
我犯了以下错误:
{
"error": "Prediction failed: Exception during model execution: AbortionError(code
根据文档,gsutil rewrite-k gs://my_bucket/my_folder/**是原子的。有没有其他方法可以做到这一点(如果我不想使用boto文件)?所有不使用boto的示例似乎都是在单个文件上操作,而不是在一组文件上进行原子操作。为了澄清,gsutil重写操作是每个对象的原子操作,而不是在匹配组中的所有对象上。没有任何GCS操作会在一组对象上原子地工作(用于键旋转或任何其他操作)。为了澄清,GSUTI重写操作是每个对象的原子操作,而不是在匹配组中的所有对象上。没有能够跨一组对
我刚刚完成了一个负载平衡器的设置,有几个后端服务器提供API,我试图通过https访问它,发现我需要设置CORS头
但就我而言,谷歌搜索没有发现任何东西。我的设置大体上是一个主服务(目前实际上托管在aws中),然后是托管在Google Cloud上的api
如何设置负载平衡器COS,以便从www.example.com上的客户端js访问api.example.com
有什么办法吗?您的后端服务器,至少应该设置CORS头。这是一种浏览器安全功能,浏览器处于启用状态,但向不同的域发出AJAX请求
从
我想把一个长的音频文件转录成文本
所以我创建了一个bucket,并使用
gsutil acl set private gs://bucket
然后,我设置了从特定帐户只能上传的访问权限
gsutil acl ch-umyaccount@provider.com:WRITE gs://bucket
然后我将服务帐户的读取权限设置为bucket
gsutil acl ch-uprojectname@projectname-a、 iam.gserviceaccount.com:R gs://bucke
我是GCP的新用户。我开始实现一个将要使用GCPAPI的应用程序。为了对API进行身份验证,我创建了服务帐户并将其存储在文件中。
在官方文档中,有这样一种说法:auth文件可以分配给环境变量:GOOGLE\u APPLICATION\u CREDENTIALS
我想从我的http客户机(比如Postman)向google API发出请求,并使用此文件进行身份验证
是否有可能,或者我想使用GCP客户端来发出HTTP请求 是的,您可以创建一个authenticate API密钥,并使用该API密钥调
几天来,我一直在使用googlecloudcomposer,主要用于将数据从MySQL移动到BigQuery,效果很好
在某个时候,它停止了工作:
正在运行的任务会运行很长时间,然后失败
任务不会启动
新DAG有注释此DAG似乎仅存在于本地。主计划程序似乎没有意识到它的存在
我已经使用Airflow web UI清理了所有DAG运行和任务实例,但仍然不起作用
有没有办法在不丢失已完成任务的结果的情况下重新启动环境?
是否有其他方法手动运行气流?您无法停止/重新启动cloud composer
我已经使用完谷歌免费试用版,当我点击升级并成功升级时,它会提示我升级“始终免费”层的帐户。但是,我如何检查我的下一个项目是否在“始终免费”层或“付费帐户”下?要确保您的项目使用的是“始终免费”层,您必须将其链接到您的计费帐户。您可以在谷歌云控制台的概述页面的下看到这一点
此外,当您创建新项目时,系统会提示您输入帐单帐户。在该步骤中,选择此始终免费帐户。我投票将此问题作为离题问题结束,因为这是一个账单/产品支持问题。
我需要从gitlab runner连接到GKE kubernetes集群,但我不想使用AutoDevops功能,我想自己设置所有这些东西。因此,基本上我希望在gitlab runner上安装gcloud sdk,然后将gcloud帐户设置为我的服务帐户,使用生成的密钥进行授权,最后执行“gcloud container clusters get credentials…”命令以获得有效的kubernetes配置,以便能够与kubernetes群集交互
有趣的事实是,我尝试在本地机器上使用具有相同
我想知道是否可以使用云端点限制/隐藏对我的云函数的直接访问
我学习了谷歌的教程
链接上写着:
通过此设置,ESP将拦截对函数的所有请求,并在调用函数之前执行任何必要的检查(如身份验证)
我设法完成了教程,在端点上添加了JWT身份验证机制。但是,即使我可以从CloudRun/ESP(启用保护)使用URL进行访问,我仍然可以从函数的直接URL进行访问(保护不适用于此级别,因此不安全)。我怎样才能避免这种情况
提前谢谢 GCF PM在这里
您需要启用GCF IAM,如第5步后半部分“授予ESP云标识和
我们正在从内部部署环境迁移到用于spark作业的google cloud dataproc。我能够构建集群,并通过ssh连接到主节点以执行作业。我不清楚如何构建边缘节点,允许用户登录并提交作业。它会是另一个gce虚拟机吗?有什么想法或最佳实践吗?新的VM实例是从其他体系结构映射EdgeNode角色的一个好选择:
您可以从可以通过SSH访问的主节点执行作业
您需要在简单性(SHH)和安全性(EdgeNode)之间找到平衡
请注意,IAM有助于允许个人用户通过分配作业来提交作业
不要忘记Data
我有一个应用程序,它使用我自己的API(谷歌云函数)和我自己的存储(有图像)
现在,我有两个客户端,它们想要使用我的API和我的存储(一个谷歌云存储桶)
云存储是一个包含大量照片的存储桶,这些照片具有公共读取权限
我试图定义一个分层定价模型,其中价格取决于两个因素:
API调用的数量
云存储带宽
也就是说,我想根据他们在我的谷歌云账户上消费的成本设定一些定价
举个例子:
如果一个客户端进行了1到500.000次API调用,我会给他们兑换10美元。在500.001和1.000.000之间,我要收1
我正在尝试使用对Google Admin SDK进行身份验证。我正在使用谷歌云平台运行云功能。云函数从云存储中获取一个文件,对其进行解密,然后使用该文件对服务进行身份验证。根据,我可以使用从\u json\u keyfile\u name进行身份验证。但是我没有直接路径,所以我尝试通过googleconsole->API->Download credentials对文件内容进行身份验证。该json具有以下键:
类型
项目编号
私钥id
私钥
客户电子邮件
客户识别码
auth_uri
令牌ur
我计划使用部署管理器为我们的每个客户部署一个新项目
我只是想知道我是否可以使用部署管理器或放入script/YAML中执行以下操作,以便它通过命令shell一次性部署所有组件
创建新的GCP项目
为已分配自定义子网的客户端创建VPC
创建虚拟机并将网络设置为自定义VPC/子网
使用yaml文件创建具有不同服务的应用程序引擎
创建存储桶
创建云Postgres SQL实例
到目前为止,我所尝试的是,我只能通过部署管理器部署VM,我可以使用命令行单独执行这些操作,但不能在一个步骤中使用部署管理器
感
我对在云VPN和内部网络之间设置VPN隧道有一些疑问
在GCP端,我有一个flex app engine应用程序在自定义VPC上运行,并希望连接到位于内部网络的设备
据我理解,带VPN隧道的云VPN应该可以工作。但我不知道构建本地VPN网关需要什么样的硬件,这样它就可以通过云VPN与应用引擎通信
本地内部网络通过ISP提供的路由器访问公共互联网
有任何硬件建议或方法来确保它与云VPN一起工作吗?或任何类似案例的经验
提前谢谢 通过建立VPN,您可以实现应用引擎应用程序进入本地网络
最简单的解决方
我在tensorflow的帮助下训练了一个人工智能模型,需要使用谷歌人工智能平台进行预测
现在AI平台指定模型需要采用特定的“SavedModel”格式,以便我将模型上传到云中并提供预测
如何将模型转换为指定的“SavedModel”格式
另外,是否有任何端到端的教程可以帮助我做同样的事情?在标准的培训循环中,您应该在最后有这样的代码
.....
def train_and_evaluate(output_dir, hparams):
get_train = read_dataset(h
我正在使用GCP中的BiqQuery分析Shopify模式数据,并尝试将Shopify客户数据加入到子记录(即订单数据)中,以便我可以找到在特定时间创建的每个客户的第一个订单,但将其限制为1…就像asc创建的订单一样,限制为1。我真的没办法弄明白
Select
customers.created_at as customer,
customers.orders_count,
orders.created_at,
orders.order_number
FROM `shopxxx.shopif
我有一个与任务ID数据库模式关联的XCom,该任务ID存储在Airflow中,它是我要加载到BigQuery中的datasetsales\u表的JSON模式
BigQuery数据集sales_表的数据来自存储在Google Cloud Storage中的CSV文件retailcustomer_data.CSV。将数据从GCS加载到BigQuery的运算符如下:
gcs_to_bigquery = GoogleCloudStorageToBigQueryOperator(task_id = 'gc
在哪里可以找到gcloud生成步骤超时的全局限制
这是我的gcloud构建配置:
steps:
- name: 'gcr.io/cloud-builders/yarn'
- name: 'gcr.io/cloud-builders/yarn'
args: ['build-nginx-config']
- name: 'gcr.io/cloud-builders/yarn'
args: ['build']
timeout: 3601s
...
timeout
根据我对Firestore文档的阅读,粒度权限似乎仅适用于移动/web客户端,而不适用于服务器端客户端(例如python google云库)
这是对的,还是我遗漏了什么?如果是这种情况,是否有任何计划允许将特定服务帐户限制在Firestore内的特定集合中(类似于如何将特定PubSub和存储对象的权限授予特定SA),不需要全有或全无项目范围的权限模型?Cloud Firestore没有任何每服务帐户粒度权限。要么整个数据库可访问,要么根本不可访问
如果你对云Firestore的未来有疑问,堆栈
如何访问运行在谷歌云平台计算引擎(VM实例)上的Jupyter笔记本?我找到了一种方法!我需要通过如下终端连接到VM:
gcloud beta compute --project "MY_PROJECT_NAME" ssh --zone "europe-west1-b" "MY_VM_NAME" -- -L 8005:127.0.0.1:8888
然后我可以通过地址http://127.0.0.1:8005/
我们遇到问题,需要跟踪用户步骤
我们查看Stackdrive,它没有我们需要的信息。
在上,它显示了2018年的活动。
我需要查看用户的活动。当他连接时,他做了什么。
但那一年有一些活动。可能已经被删除了吗
感谢Google Cloud Stackdriver不会记录诸如用户通过SSH登录到计算引擎实例之类的信息。这可以通过设置Stackdriver来记录SSH服务器授权日志文件来启用。该文件还记录用户执行的sudo/root命令。此方法不会记录正常的非特权命令。这需要附加组件
数据可能仍存在于
如何使用计算引擎进行部署?我希望通过bitbucket管道持续部署。您可以按照以下步骤将bitbucket存储库镜像到GCP中,但是您需要首先进行镜像
我建议您编辑您的问题,并提供更多详细信息以及您试图实现的目标。欢迎使用Stack Overflow!提问前请先阅读和“”。
如果我理解正确,那么-此配额表示您可以为项目中的所有VPC网络创建的防火墙规则的数量。
每个项目的最大防火墙规则数:默认为500
您不能增加此配额
但在这种情况下,我有以下问题:
我怎样才能知道我的项目中已经使用了多少?
这取决于什么?这是怎么发生的?防火墙规则是对您希望允许/拒绝的内容的描述。正如您所说,允许您定义多少不同的规则是有配额的。但是,该规则的应用程序没有配额。当向您的网络发出请求时,有效的规则集将与该请求匹配。这是规则的应用。规则的适用次数没有限制或配额。您可以定义的规则数量配额与
免责声明:这里有线索。谷歌的文档是可怕的,所以给了我一个旋转的机会,我没有被否决到dev/null的深度
出于迫在眉睫的需要,我正在将一个监视Gmail帐户的私有应用程序迁移到OAuth 2,作为这个过程的一部分,有必要创建一个OAuth同意屏幕。由于此应用程序仅在内部使用,因此选择“内部”作为应用程序类型最有意义,如下所述:
只有在您的组织中拥有Google帐户的用户才能授予对此应用程序请求的作用域的访问权限
这个项目的用户包括两个“所有者”——我自己使用我的个人Gmail账户,还有
属于公司
我创建了一个云函数,该函数设置为由Google云存储桶上的Finalize/Create事件触发
我将10k个图像转储到bucket中,大多数图像都成功运行了云功能,而有些图像抛出了以下异常,我只是不知道是什么导致了这个错误
错误是返回404,但当我检查bucket时,图像就在那里。是否有人具有修复以下异常的经验
出于某种原因,云函数正在检查一个不存在的目录
它应该检查以下目录:
https://storage.googleapis.com/download/storage/v1/b/hidde
我们需要动态生成图像,并使用CDN进行缓存。为此,我们配置了一个具有负载平衡器功能的云CDN的后端服务。我们正在使用Nginx代理服务器。我们在Google cloud CDN文档中添加了指定的标题,但不幸的是,它没有缓存
请求:
GET /resize?size=l&url=https://example.com/image.jpeg HTTP/1.1
Host: resize.example.com
请求头:
Host: resize.example.com
User-Agent:
我是一名学生,我想在我的学校组织数据科学挑战赛,我想使用谷歌云平台作为基础设施。共有43个团队参与了此次挑战,其想法是在GCP中创建环境,并允许43个团队工作12小时,以解决数据科学问题,技术环境是Rstudio和ancaconda。他们将使用200毫克的数据,只有我们将使用CPU,我认为我们需要4个虚拟机,因此我们必须在4个虚拟机中安装所有环境,并允许所有43个团队访问
任何建议和帮助。还有其他解决方案吗?您所描述的是利用谷歌的身份和访问管理是可能的。可以将角色分配给各个成员,并且可以限制他们
我有一个GKE集群、一个静态ip和一个容器/pod,它公开了两个端口:8081(UI https)和8082(WSS https)。我必须连接到同一IP上的“UI Https”和“WSS Https”。“WSS Https”服务没有健康检查端点
我是否需要使用Isito、CONSOR、Nginx入口或某些服务网格来允许在同一IP上使用不同端口进行这些连接?
这可能吗?
我尝试过的事情:
GCP global lb具有2个独立的入口服务。第二个服务的yaml无法正常工作,但我可以通过UI添加另一
我已经为我的微服务创建了loadbalancer,使用这个模板:,一切都很好,但我想以某种方式添加global标志(当您通过gcp控制台创建lb时,您可以选择添加它),以满足对应用程序功能的期望,有人知道我还需要添加什么标志吗
apiVersion: v1
kind: Service
metadata:
name: my-app-jmprlb
annotations:
cloud.google.com/load-balancer-type: "Internal"
labels
我想做OCR,我知道CloudVisionAPI支持它。但我对为其制作自定义模型感兴趣,并希望使用AutoML实现同样的功能。但我无法使用AutoML找到任何与OCR相关的内容。是否可以使用AutoML进行OCR?我们该怎么做?我知道这是一个非常开放的问题,但我非常感谢您的帮助。您无法从AutoML执行OCR。您可以选择使用Cloud Vision API进行OCR,然后应用您自己的算法以某种方式将检测到的字母组合在一起,或者从头开始训练您自己的OCR模型(不推荐)。您无法从AutoML进行OC
我曾经在谷歌云监控中创建过两个指标的比率图表
我想基于MQL创建一个警报策略,但是云控制台中的UI没有查询编辑器,就像Metrics Explorer中那样
在使用Google云监控(Stackdriver)定义警报策略的条件时,是否有一种使用MQL的方法
谢谢 引用c69:
issuetracker.google.com/15770220中有一个基于MQL的警报功能请求
截至本文发布之日,不支持基于MQL的警报。我不确定这是否有用,但您可以创建一个自定义服务,然后使用两个指标的比率为其定义SL
我在我的项目中设置了googlecloudbuild和Kubernetes引擎,我想将我的构建返回到另一个项目。我这样做是为了在发生灾难时有一个备份,以便能够恢复构建
我注意到所有的构建都保存在一个名为:artifacts.{project id}.appspot.com
我想出的选项
将此桶转移到另一个项目中
这将物理备份这些构建
问题
如果原始项目被删除,这是否足以让我恢复构建?我该怎么做
我还可以用什么方法备份这些生成
CloudBuild创建一个Docker映像,并将其上传到Google
如果您能指点一下,我将不胜感激。我对GCP有点陌生。我想保护云运行,它将运行一些API。我正在考虑使用Identity平台创建一组使用OAuth2调用API的用户
创建的是云运行服务,该服务禁止公众访问。以及当前公开的API端点,该端点从安全的云运行服务返回响应。还创建了带有测试用户的Identity Platform,我可以从中获取SecureToken
API端点的配置文件如下所示:
swagger: '2.0'
host: *HOST*
schemes:
- https
我想设置云监控,以便在每次我的云功能响应4xx/5xx HTTP状态代码时向我发出警报。请让我知道如何从云控制台实现此功能。您可以使用云日志来实现此功能
转到云日志页面并过滤日志
然后选择您想要的日志部分(在我的屏幕截图中是200 HTTP响应代码),然后单击“显示匹配条目”
现在,在查询生成器中,您可以选择匹配的条目
您可以更改它,值(400而不是200)等于>或者我可以成功创建日志查询,但由于某些原因,它总是返回0个结果。请注意,这是针对GCF的。我的日志查询是:resource
这是直截了当的。
我正在开发的系统将在dataproc(谷歌云平台)中提供
由于我们系统的某些业务特性,我们可以计算出未来处理的预期数据。
所以,我只想在此基础上扩展dataproc
是否有任何想法通过调度器或我们实现的API扩展dataproc
提前感谢。您可以使用gcloud Dataproc clusters update或其中一个Dataproc客户端库中的等效API调用来更新Dataproc集群的大小,请参阅文档。它还支持,其中集群可以根据集群上的负载增长和收缩。对于这种情况,您应该结
我们正在开发一个Django应用程序,其中我们使用Gmail API的服务(受限范围)
由于我们的应用程序仍在建设中,所以我们没有在谷歌云表单上提交验证我们尝试验证的应用程序用于内部开发,我们没有将其发布给用户。
因此,我们正面临“”屏幕,幸运的是,我们可以通过单击“高级”选项跳过此屏幕登录。我们尝试了我们的个人和测试帐户,它工作得很好
但是,每当我们的客户试图用应用程序验证Gmail时,他就会面临这个问题
我们检查没有达到100个用户访问应用程序的限制。
这是因为位置问题吗?或者我们的客户正在
我已经在网上找过好几次了,我觉得这个问题没有被问到,或者我可能只是被错误的语法所困扰。希望在这里得到一个简单的答案(是的,你不能得到这个,这是一个可以接受的答案)
此处列出了与基本CentOS图像的不同之处:
但是,他们实际上并没有提供此图像的下载。我正在尝试使用此映像在VMWare中运行本地VM
我觉得他们会向他们的客户提供这项服务,以便为使用他们的产品做准备,但我在任何地方都找不到
若有人能给我一个指向预先配置的CentOS ISO的链接,只需稍作改动,我肯定会把它作为一个替代方案。我只是对
我已经使用谷歌云建立了一个HTCondor集群,如下所示
除了自动缩放功能之外,我还喜欢它。我想要比组中所有实例的目标cpu平均利用率更简单的东西。如果HTCondor对一台机器没有用处,一旦没有足够的作业来使用所有可用的集群,我就想删除它
我可以尝试使用在一段时间后删除自己的实例,而不需要任何使用。但是自动校准机会启动另一台机器。我需要更改自动删除机器并降低最大副本数
有什么想法吗?教程将集合实例组链接为始终有2个实例。我想你已经调整好了。
您可以通过输入计算引擎来编辑HTCondor实例组的
我正在尝试使用bq mk--transfer\u config
我希望写入首选项为MIRROR,但找不到如何通过参数设置此值
--params='{"data_path_template":"gs://",
"destination_table_name_template":"",
"file_format":"CSV",
"max_bad_records"
摘要
半年前,我在谷歌云平台(计算引擎)上启动了一个实例,现在我的雇主想知道中国的合作者是否可以使用我在中国提供的服务。
如果不进行测试,我怎么知道中国的长城防火墙是否会阻止我的服务,或者我是否必须切换到其他平台
关于我不使用Google DNS的信息,我将从我的注册器重定向到我服务器的静态IP。没有以下限制:
谷歌云平台对来自中国的流量没有限制。如果您在GCE上托管网站,来自中国用户的流量将不会被阻止。
尽管如此,谷歌对GFW拦截方法没有任何控制权
如果您不想使用或之类的工具测试服务,您可以仅
我必须访问客户的Google Analytics API
这是Google帐户凭据的结构
Client Id: 456-bbb.apps.googleusercontent.com
Client Secret: -_50def
Refresh Token: 1/xyz-
有人告诉我
使用上述详细信息,在调用API时生成访问令牌
如何通过Postman或Python中的某些程序使用此凭据访问Google analytics API?您可能希望告知他们,与其他人共享在Google开发者控制台上
只是想确定我的理解是正确的。根据我的研究,Deployment Manager可以与第三方API集成,尽管目前是测试版功能
所以我的问题是,Deployment Manager能否自动化Google资源和外部资源(例如使用第三方API的内部部署资源)
绝对如此,但在您成功将第三方API注册为类型提供程序之后(不由谷歌管理)
考虑到:
您的API映射到http方法
gethtttp://onpremises.com/api/yourresource
删除htttp://onpremises.co
我们想通过谷歌云控制台对项目进行ip限制
这意味着除了云API之外,用户只能访问控制台
下面的参考指南没有帮助
由于API访问也受到限制,甚至谷歌云内部服务之间的访问也受到限制
我们只想通过控制台登录ip限制对项目的访问
1 2 3 4 5 6 ...
下一页 最后一页 共 142 页