欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

go語言調(diào)用post go語言調(diào)用java

GO語言(十三):使用 Go 和 Gin 開發(fā) RESTful API(下)

當(dāng)客戶端在 發(fā)出POST請求時/albums,您希望將請求正文中描述的專輯添加到現(xiàn)有專輯數(shù)據(jù)中。

創(chuàng)新互聯(lián)不只是一家網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司;我們對營銷、技術(shù)、服務(wù)都有自己獨特見解,公司采取“創(chuàng)意+綜合+營銷”一體化的方式為您提供更專業(yè)的服務(wù)!我們經(jīng)歷的每一步也許不一定是最完美的,但每一步都有值得深思的意義。我們珍視每一份信任,關(guān)注我們的網(wǎng)站設(shè)計、成都網(wǎng)站建設(shè)質(zhì)量和服務(wù)品質(zhì),在得到用戶滿意的同時,也能得到同行業(yè)的專業(yè)認(rèn)可,能夠為行業(yè)創(chuàng)新發(fā)展助力。未來將繼續(xù)專注于技術(shù)創(chuàng)新,服務(wù)升級,滿足企業(yè)一站式營銷型網(wǎng)站建設(shè)需求,讓再小的成都品牌網(wǎng)站建設(shè)也能產(chǎn)生價值!

為此,您將編寫以下內(nèi)容:

1、編寫代碼

a.添加代碼以將專輯數(shù)據(jù)添加到專輯列表。

在此代碼中:

1)用于Context.BindJSON 將請求正文綁定到newAlbum。

2) album將從 JSON 初始化的結(jié)構(gòu)附加到albums 切片。

3)向響應(yīng)添加201狀態(tài)代碼,以及表示您添加的專輯的 JSON。

b.更改您的main函數(shù),使其包含該router.POST函數(shù),如下所示。

在此代碼中:

1)將路徑中的POST方法與 /albumspostAlbums函數(shù)相關(guān)聯(lián)。

使用 Gin,您可以將處理程序與 HTTP 方法和路徑組合相關(guān)聯(lián)。這樣,您可以根據(jù)客戶端使用的方法將發(fā)送到單個路徑的請求單獨路由。

a.如果服務(wù)器從上一節(jié)開始仍在運行,請停止它。

b.從包含 main.go 的目錄中的命令行,運行代碼。

c.從不同的命令行窗口,用于curl向正在運行的 Web 服務(wù)發(fā)出請求。

該命令應(yīng)顯示添加專輯的標(biāo)題和 JSON。

d.與上一節(jié)一樣,使用curl檢索完整的專輯列表,您可以使用它來確認(rèn)添加了新專輯。

該命令應(yīng)顯示專輯列表。

當(dāng)客戶端向 發(fā)出請求時GET /albums/[id],您希望返回 ID 與id路徑參數(shù)匹配的專輯。

為此,您將:

a.在您在上一節(jié)中添加的函數(shù)下方postAlbums,粘貼以下代碼以檢索特定專輯。

此getAlbumByID函數(shù)將提取請求路徑中的 ID,然后找到匹配的專輯。

在此代碼中:

(1)Context.Param用于從 URL 中檢索id路徑參數(shù)。當(dāng)您將此處理程序映射到路徑時,您將在路徑中包含參數(shù)的占位符。

(2)循環(huán)album切片中的結(jié)構(gòu),尋找其ID 字段值與id參數(shù)值匹配的結(jié)構(gòu)。如果找到,則將該album結(jié)構(gòu)序列化為 JSON,并將其作為帶有200 OK HTTP 代碼的響應(yīng)返回。

如上所述,實際使用中的服務(wù)可能會使用數(shù)據(jù)庫查詢來執(zhí)行此查找。

(3)如果找不到專輯,則返回 HTTP 404錯誤。

b.最后,更改您的main,使其包含對router.GET的新調(diào)用,路徑現(xiàn)在為/albums/:id ,如以下示例所示。

在此代碼中:

(1)將/albums/:id路徑與getAlbumByID功能相關(guān)聯(lián)。在 Gin 中,路徑中項目前面的冒號表示該項目是路徑參數(shù)。

a.如果服務(wù)器從上一節(jié)開始仍在運行,請停止它。

b.在包含 main.go 的目錄中的命令行中,運行代碼以啟動服務(wù)器。

c.從不同的命令行窗口,用于curl向正在運行的 Web 服務(wù)發(fā)出請求。

該命令應(yīng)顯示您使用其 ID 的專輯的 JSON。如果找不到專輯,您將收到帶有錯誤消息的 JSON。

恭喜!您剛剛使用 Go 和 Gin 編寫了一個簡單的 RESTful Web 服務(wù)。

本節(jié)包含您使用本教程構(gòu)建的應(yīng)用程序的代碼。

如何用go語言每分鐘處理100萬個請求

在Malwarebytes 我們經(jīng)歷了顯著的增長,自從我一年前加入了硅谷的公司,一個主要的職責(zé)成了設(shè)計架構(gòu)和開發(fā)一些系統(tǒng)來支持一個快速增長的信息安全公司和所有需要的設(shè)施來支持一個每天百萬用戶使用的產(chǎn)品。我在反病毒和反惡意軟件行業(yè)的不同公司工作了12年,從而我知道由于我們每天處理大量的數(shù)據(jù),這些系統(tǒng)是多么復(fù)雜。

有趣的是,在過去的大約9年間,我參與的所有的web后端的開發(fā)通常是通過Ruby on Rails技術(shù)實現(xiàn)的。不要錯怪我。我喜歡Ruby on Rails,并且我相信它是個令人驚訝的環(huán)境。但是一段時間后,你會開始以ruby的方式開始思考和設(shè)計系統(tǒng),你會忘記,如果你可以利用多線程、并行、快速執(zhí)行和小內(nèi)存開銷,軟件架構(gòu)本來應(yīng)該是多么高效和簡單。很多年期間,我是一個c/c++、Delphi和c#開發(fā)者,我剛開始意識到使用正確的工具可以把復(fù)雜的事情變得簡單些。

作為首席架構(gòu)師,我不會很關(guān)心在互聯(lián)網(wǎng)上的語言和框架戰(zhàn)爭。我相信效率、生產(chǎn)力。代碼可維護(hù)性主要依賴于你如何把解決方案設(shè)計得很簡單。

問題

當(dāng)工作在我們的匿名遙測和分析系統(tǒng)中,我們的目標(biāo)是可以處理來自于百萬級別的終端的大量的POST請求。web處理服務(wù)可以接收包含了很多payload的集合的JSON數(shù)據(jù),這些數(shù)據(jù)需要寫入Amazon S3中。接下來,map-reduce系統(tǒng)可以操作這些數(shù)據(jù)。

按照習(xí)慣,我們會調(diào)研服務(wù)層級架構(gòu),涉及的軟件如下:

Sidekiq

Resque

DelayedJob

Elasticbeanstalk Worker Tier

RabbitMQ

and so on…

搭建了2個不同的集群,一個提供web前端,另外一個提供后端處理,這樣我們可以橫向擴(kuò)展后端服務(wù)的數(shù)量。

但是,從剛開始,在 討論階段我們的團(tuán)隊就知道我們應(yīng)該使用Go,因為我們看到這會潛在性地成為一個非常龐大( large traffic)的系統(tǒng)。我已經(jīng)使用了Go語言大約2年時間,我們開發(fā)了幾個系統(tǒng),但是很少會達(dá)到這樣的負(fù)載(amount of load)。

我們開始創(chuàng)建一些結(jié)構(gòu),定義從POST調(diào)用得到的web請求負(fù)載,還有一個上傳到S3 budket的函數(shù)。

type PayloadCollection struct {

WindowsVersion string `json:"version"`

Token string `json:"token"`

Payloads []Payload `json:"data"`

}

type Payload struct {

// [redacted]

}

func (p *Payload) UploadToS3() error {

// the storageFolder method ensures that there are no name collision in

// case we get same timestamp in the key name

storage_path := fmt.Sprintf("%v/%v", p.storageFolder, time.Now().UnixNano())

bucket := S3Bucket

b := new(bytes.Buffer)

encodeErr := json.NewEncoder(b).Encode(payload)

if encodeErr != nil {

return encodeErr

}

// Everything we post to the S3 bucket should be marked 'private'

var acl = s3.Private

var contentType = "application/octet-stream"

return bucket.PutReader(storage_path, b, int64(b.Len()), contentType, acl, s3.Options{})

}

本地Go routines方法

剛開始,我們采用了一個非常本地化的POST處理實現(xiàn),僅僅嘗試把發(fā)到簡單go routine的job并行化:

func payloadHandler(w http.ResponseWriter, r *http.Request) {

if r.Method != "POST" {

w.WriteHeader(http.StatusMethodNotAllowed)

return

}

// Read the body into a string for json decoding

var content = PayloadCollection{}

err := json.NewDecoder(io.LimitReader(r.Body, MaxLength)).Decode(content)

if err != nil {

w.Header().Set("Content-Type", "application/json; charset=UTF-8")

w.WriteHeader(http.StatusBadRequest)

return

}

// Go through each payload and queue items individually to be posted to S3

for _, payload := range content.Payloads {

go payload.UploadToS3() // ----- DON'T DO THIS

}

w.WriteHeader(http.StatusOK)

}

對于中小負(fù)載,這會對大多數(shù)的人適用,但是大規(guī)模下,這個方案會很快被證明不是很好用。我們期望的請求數(shù),不在我們剛開始計劃的數(shù)量級,當(dāng)我們把第一個版本部署到生產(chǎn)環(huán)境上。我們完全低估了流量。

上面的方案在很多地方很不好。沒有辦法控制我們產(chǎn)生的go routine的數(shù)量。由于我們收到了每分鐘1百萬的POST請求,這段代碼很快就崩潰了。

再次嘗試

我們需要找一個不同的方式。自開始我們就討論過, 我們需要保持請求處理程序的生命周期很短,并且進(jìn)程在后臺產(chǎn)生。當(dāng)然,這是你在Ruby on Rails的世界里必須要做的事情,否則你會阻塞在所有可用的工作 web處理器上,不管你是使用puma、unicore還是passenger(我們不要討論JRuby這個話題)。然后我們需要利用常用的處理方案來做這些,比如Resque、 Sidekiq、 SQS等。這個列表會繼續(xù)保留,因為有很多的方案可以實現(xiàn)這些。

所以,第二次迭代,我們創(chuàng)建了一個緩沖channel,我們可以把job排隊,然后把它們上傳到S3。因為我們可以控制我們隊列中的item最大值,我們有大量的內(nèi)存來排列job,我們認(rèn)為只要把job在channel里面緩沖就可以了。

var Queue chan Payload

func init() {

Queue = make(chan Payload, MAX_QUEUE)

}

func payloadHandler(w http.ResponseWriter, r *http.Request) {

...

// Go through each payload and queue items individually to be posted to S3

for _, payload := range content.Payloads {

Queue - payload

}

...

}

接下來,我們再從隊列中取job,然后處理它們。我們使用類似于下面的代碼:

func StartProcessor() {

for {

select {

case job := -Queue:

job.payload.UploadToS3() // -- STILL NOT GOOD

}

}

}

說實話,我不知道我們在想什么。這肯定是一個滿是Red-Bulls的夜晚。這個方法不會帶來什么改善,我們用了一個 有缺陷的緩沖隊列并發(fā),僅僅是把問題推遲了。我們的同步處理器同時僅僅會上傳一個數(shù)據(jù)到S3,因為來到的請求遠(yuǎn)遠(yuǎn)大于單核處理器上傳到S3的能力,我們的帶緩沖channel很快達(dá)到了它的極限,然后阻塞了請求處理邏輯的queue更多item的能力。

我們僅僅避免了問題,同時開始了我們的系統(tǒng)掛掉的倒計時。當(dāng)部署了這個有缺陷的版本后,我們的延時保持在每分鐘以常量增長。

最好的解決方案

我們討論過在使用用Go channel時利用一種常用的模式,來創(chuàng)建一個二級channel系統(tǒng),一個來queue job,另外一個來控制使用多少個worker來并發(fā)操作JobQueue。

想法是,以一個恒定速率并行上傳到S3,既不會導(dǎo)致機(jī)器崩潰也不好產(chǎn)生S3的連接錯誤。這樣我們選擇了創(chuàng)建一個Job/Worker模式。對于那些熟悉Java、C#等語言的開發(fā)者,可以把這種模式想象成利用channel以golang的方式來實現(xiàn)了一個worker線程池,作為一種替代。

var (

MaxWorker = os.Getenv("MAX_WORKERS")

MaxQueue = os.Getenv("MAX_QUEUE")

)

// Job represents the job to be run

type Job struct {

Payload Payload

}

// A buffered channel that we can send work requests on.

var JobQueue chan Job

// Worker represents the worker that executes the job

type Worker struct {

WorkerPool chan chan Job

JobChannel chan Job

quit chan bool

}

func NewWorker(workerPool chan chan Job) Worker {

return Worker{

WorkerPool: workerPool,

JobChannel: make(chan Job),

quit: make(chan bool)}

}

// Start method starts the run loop for the worker, listening for a quit channel in

// case we need to stop it

func (w Worker) Start() {

go func() {

for {

// register the current worker into the worker queue.

w.WorkerPool - w.JobChannel

select {

case job := -w.JobChannel:

// we have received a work request.

if err := job.Payload.UploadToS3(); err != nil {

log.Errorf("Error uploading to S3: %s", err.Error())

}

case -w.quit:

// we have received a signal to stop

return

}

}

}()

}

// Stop signals the worker to stop listening for work requests.

func (w Worker) Stop() {

go func() {

w.quit - true

}()

}

我們已經(jīng)修改了我們的web請求handler,用payload創(chuàng)建一個Job實例,然后發(fā)到JobQueue channel,以便于worker來獲取。

func payloadHandler(w http.ResponseWriter, r *http.Request) {

if r.Method != "POST" {

w.WriteHeader(http.StatusMethodNotAllowed)

return

}

// Read the body into a string for json decoding

var content = PayloadCollection{}

err := json.NewDecoder(io.LimitReader(r.Body, MaxLength)).Decode(content)

if err != nil {

w.Header().Set("Content-Type", "application/json; charset=UTF-8")

w.WriteHeader(http.StatusBadRequest)

return

}

// Go through each payload and queue items individually to be posted to S3

for _, payload := range content.Payloads {

// let's create a job with the payload

work := Job{Payload: payload}

// Push the work onto the queue.

JobQueue - work

}

w.WriteHeader(http.StatusOK)

}

在web server初始化時,我們創(chuàng)建一個Dispatcher,然后調(diào)用Run()函數(shù)創(chuàng)建一個worker池子,然后開始監(jiān)聽JobQueue中的job。

dispatcher := NewDispatcher(MaxWorker)

dispatcher.Run()

下面是dispatcher的實現(xiàn)代碼:

type Dispatcher struct {

// A pool of workers channels that are registered with the dispatcher

WorkerPool chan chan Job

}

func NewDispatcher(maxWorkers int) *Dispatcher {

pool := make(chan chan Job, maxWorkers)

return Dispatcher{WorkerPool: pool}

}

func (d *Dispatcher) Run() {

// starting n number of workers

for i := 0; i d.maxWorkers; i++ {

worker := NewWorker(d.pool)

worker.Start()

}

go d.dispatch()

}

func (d *Dispatcher) dispatch() {

for {

select {

case job := -JobQueue:

// a job request has been received

go func(job Job) {

// try to obtain a worker job channel that is available.

// this will block until a worker is idle

jobChannel := -d.WorkerPool

// dispatch the job to the worker job channel

jobChannel - job

}(job)

}

}

}

注意到,我們提供了初始化并加入到池子的worker的最大數(shù)量。因為這個工程我們利用了Amazon Elasticbeanstalk帶有的docker化的Go環(huán)境,所以我們常常會遵守12-factor方法論來配置我們的生成環(huán)境中的系統(tǒng),我們從環(huán)境變了讀取這些值。這種方式,我們控制worker的數(shù)量和JobQueue的大小,所以我們可以很快的改變這些值,而不需要重新部署集群。

var (

MaxWorker = os.Getenv("MAX_WORKERS")

MaxQueue = os.Getenv("MAX_QUEUE")

)

直接結(jié)果

我們部署了之后,立馬看到了延時降到微乎其微的數(shù)值,并未我們處理請求的能力提升很大。

Elastic Load Balancers完全啟動后,我們看到ElasticBeanstalk 應(yīng)用服務(wù)于每分鐘1百萬請求。通常情況下在上午時間有幾個小時,流量峰值超過每分鐘一百萬次。

我們一旦部署了新的代碼,服務(wù)器的數(shù)量從100臺大幅 下降到大約20臺。

我們合理配置了我們的集群和自動均衡配置之后,我們可以把服務(wù)器的數(shù)量降至4x EC2 c4.Large實例,并且Elastic Auto-Scaling設(shè)置為如果CPU達(dá)到5分鐘的90%利用率,我們就會產(chǎn)生新的實例。

總結(jié)

在我的書中,簡單總是獲勝。我們可以使用多隊列、后臺worker、復(fù)雜的部署設(shè)計一個復(fù)雜的系統(tǒng),但是我們決定利用Elasticbeanstalk 的auto-scaling的能力和Go語言開箱即用的特性簡化并發(fā)。

我們僅僅用了4臺機(jī)器,這并不是什么新鮮事了。可能它們還不如我的MacBook能力強(qiáng)大,但是卻處理了每分鐘1百萬的寫入到S3的請求。

處理問題有正確的工具。當(dāng)你的 Ruby on Rails 系統(tǒng)需要更強(qiáng)大的web handler時,可以考慮下ruby生態(tài)系統(tǒng)之外的技術(shù),或許可以得到更簡單但更強(qiáng)大的替代方案。

求教golang中http發(fā)送post請求gb2312編碼的解決方案

如果你使用的是httpclient,可是使用下面的方法發(fā)送gb2312數(shù)據(jù), HttpPost httpRequest = new HttpPost(url); httpRequest.setEntity(new UrlEncodedFormEntity(pairs, "gb2312"));

golang獲取postman傳遞數(shù)據(jù)的方法

http.request的三個屬性Form、PostForm、MultipartForm:

Form:存儲了post、put和get參數(shù),在使用之前需要調(diào)用ParseForm方法。

PostForm:存儲了post、put參數(shù),在使用之前需要調(diào)用ParseForm方法。

MultipartForm:存儲了包含了文件上傳的表單的post參數(shù),在使用前需要調(diào)用ParseMultipartForm方法。

獲取Get參數(shù)

用postman測試,提交,服務(wù)端輸出 :[111],提交: ;uid=222。服務(wù)端輸出:[111 222]

小結(jié):r.Form是url.Values字典類型,r.Form[“id”]取到的是一個數(shù)組類型。因為http.request在解析參數(shù)的時候會將同名的參數(shù)都放進(jìn)同一個數(shù)組里。

網(wǎng)站名稱:go語言調(diào)用post go語言調(diào)用java
網(wǎng)頁URL:http://chinadenli.net/article36/hghhpg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供關(guān)鍵詞優(yōu)化微信公眾號響應(yīng)式網(wǎng)站移動網(wǎng)站建設(shè)商城網(wǎng)站電子商務(wù)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都做網(wǎng)站