source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3864

Last change on this file since 3864 was 3864, checked in by matszpk, 18 months ago

CLRadeonExtender: Add TODO to AsmRegAlloc?. Small formatting.

File size: 101.3 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588
589struct CLRX_INTERNAL RetSSAEntry
590{
591    std::vector<size_t> routines;
592    VectorSet<size_t> ssaIds;
593};
594
595typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
596
597struct CLRX_INTERNAL RoutineData
598{
599    // rbwSSAIdMap - read before write SSAId's map
600    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
601    LastSSAIdMap curSSAIdMap;
602    LastSSAIdMap lastSSAIdMap;
603};
604
605struct CLRX_INTERNAL FlowStackEntry
606{
607    size_t blockIndex;
608    size_t nextIndex;
609    bool isCall;
610    std::unordered_map<AsmSingleVReg, size_t> prevSSAIds;
611    RetSSAIdMap prevRetSSAIdSets;
612};
613
614struct CLRX_INTERNAL FlowStackEntry2
615{
616    size_t blockIndex;
617    size_t nextIndex;
618};
619
620
621struct CLRX_INTERNAL CallStackEntry
622{
623    size_t callBlock; // index
624    size_t callNextIndex; // index of call next
625    size_t routineBlock;    // routine block
626};
627
628class ResSecondPointsToCache: public std::vector<bool>
629{
630public:
631    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
632    { }
633   
634    void increase(size_t i)
635    {
636        if ((*this)[i<<1])
637            (*this)[(i<<1)+1] = true;
638        else
639            (*this)[i<<1] = true;
640    }
641   
642    cxuint count(size_t i) const
643    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
644};
645
646typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
647typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
648
649static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
650              size_t origId, size_t destId)
651{
652    auto res = rmap.insert({ vreg, {} });
653    res.first->second.push_back({ origId, destId });
654}
655
656static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
657            const LastSSAIdMap* stackVarMap,
658            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
659            FlowStackEntry2& entry, const SSAEntry& sentry,
660            RBWSSAIdMap* cacheSecPoints)
661{
662    const SSAInfo& sinfo = sentry.second;
663    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
664   
665    if (res.second && sinfo.readBeforeWrite)
666    {
667        if (cacheSecPoints != nullptr)
668        {
669            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
670            if (!res.second)
671                res.first->second.insertValue(sinfo.ssaIdBefore);
672        }
673       
674        if (stackVarMap != nullptr)
675        {
676           
677            // resolve conflict for this variable ssaId>.
678            // only if in previous block previous SSAID is
679            // read before all writes
680            auto it = stackVarMap->find(sentry.first);
681           
682            if (it != stackVarMap->end())
683            {
684                // found, resolve by set ssaIdLast
685                for (size_t ssaId: it->second)
686                {
687                    if (ssaId > sinfo.ssaIdBefore)
688                    {
689                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
690                            sentry.first.index  << ": " <<
691                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
692                        insertReplace(*replacesMap, sentry.first, ssaId,
693                                    sinfo.ssaIdBefore);
694                    }
695                    else if (ssaId < sinfo.ssaIdBefore)
696                    {
697                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
698                            sentry.first.index  << ": " <<
699                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
700                        insertReplace(*replacesMap, sentry.first,
701                                        sinfo.ssaIdBefore, ssaId);
702                    }
703                    /*else
704                        std::cout << "  noinsertreplace: " <<
705                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
706                }
707            }
708        }
709    }
710}
711
712typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
713
714static void useResSecPointCache(SSAReplacesMap* replacesMap,
715        const LastSSAIdMap* stackVarMap,
716        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
717        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
718        RBWSSAIdMap* destCacheSecPoints)
719{
720    std::cout << "use resSecPointCache for " << nextBlock <<
721            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
722    for (const auto& sentry: *resSecondPoints)
723    {
724        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
725        if (destCacheSecPoints != nullptr && !alreadyRead)
726        {
727            auto res = destCacheSecPoints->insert(sentry);
728            if (!res.second)
729                for (size_t srcSSAId: sentry.second)
730                    res.first->second.insertValue(srcSSAId);
731        }
732       
733        if (stackVarMap != nullptr)
734        {
735            auto it = stackVarMap->find(sentry.first);
736           
737            if (it != stackVarMap->end() && !alreadyRead)
738            {
739                // found, resolve by set ssaIdLast
740                for (size_t ssaId: it->second)
741                {
742                    for (size_t secSSAId: sentry.second)
743                    {
744                        if (ssaId > secSSAId)
745                        {
746                            std::cout << "  insertreplace: " <<
747                                sentry.first.regVar << ":" <<
748                                sentry.first.index  << ": " <<
749                                ssaId << ", " << secSSAId << std::endl;
750                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
751                        }
752                        else if (ssaId < secSSAId)
753                        {
754                            std::cout << "  insertreplace2: " <<
755                                sentry.first.regVar << ":" <<
756                                sentry.first.index  << ": " <<
757                                ssaId << ", " << secSSAId << std::endl;
758                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
759                        }
760                        /*else
761                            std::cout << "  noinsertreplace: " <<
762                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
763                    }
764                }
765            }
766        }
767    }
768}
769
770static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
771                const std::vector<CodeBlock>& codeBlocks,
772                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
773                size_t nextBlock)
774{
775    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
776    //std::stack<CallStackEntry> callStack = prevCallStack;
777    // traverse by graph from next block
778    std::deque<FlowStackEntry2> flowStack;
779    flowStack.push_back({ nextBlock, 0 });
780    std::vector<bool> visited(codeBlocks.size(), false);
781   
782    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
783   
784    RBWSSAIdMap cacheSecPoints;
785   
786    while (!flowStack.empty())
787    {
788        FlowStackEntry2& entry = flowStack.back();
789        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
790       
791        if (entry.nextIndex == 0)
792        {
793            // process current block
794            if (!visited[entry.blockIndex])
795            {
796                visited[entry.blockIndex] = true;
797                std::cout << "  resolv: " << entry.blockIndex << std::endl;
798               
799                const RBWSSAIdMap* resSecondPoints =
800                            resSecondPointsCache.use(entry.blockIndex);
801                if (resSecondPoints == nullptr)
802                    for (auto& sentry: cblock.ssaInfoMap)
803                        handleSSAEntryWhileResolving(nullptr, nullptr,
804                                alreadyReadMap, entry, sentry,
805                                &cacheSecPoints);
806                else // to use cache
807                {
808                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
809                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
810                    flowStack.pop_back();
811                    continue;
812                }
813            }
814            else
815            {
816                // back, already visited
817                std::cout << "resolv already: " << entry.blockIndex << std::endl;
818                flowStack.pop_back();
819                continue;
820            }
821        }
822       
823        /*if (!callStack.empty() &&
824            entry.blockIndex == callStack.top().callBlock &&
825            entry.nextIndex-1 == callStack.top().callNextIndex)
826            callStack.pop(); // just return from call
827        */
828        if (entry.nextIndex < cblock.nexts.size())
829        {
830            /*if (cblock.nexts[entry.nextIndex].isCall)
831                callStack.push({ entry.blockIndex, entry.nextIndex,
832                            cblock.nexts[entry.nextIndex].block });*/
833            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
834            entry.nextIndex++;
835        }
836        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
837                // if have any call then go to next block
838                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
839                 !cblock.haveReturn && !cblock.haveEnd)
840        {
841            // add toResolveMap ssaIds inside called routines
842            for (const auto& next: cblock.nexts)
843                if (next.isCall)
844                {
845                    const RoutineData& rdata = routineMap.find(next.block)->second;
846                    for (const auto& v: rdata.rbwSSAIdMap)
847                        alreadyReadMap.insert({v.first, entry.blockIndex });
848                    for (const auto& v: rdata.lastSSAIdMap)
849                        alreadyReadMap.insert({v.first, entry.blockIndex });
850                }
851           
852            flowStack.push_back({ entry.blockIndex+1, 0 });
853            entry.nextIndex++;
854        }
855        else // back
856        {
857            // remove old to resolve in leaved way to allow collecting next ssaId
858            // before write (can be different due to earlier visit)
859            for (const auto& next: cblock.nexts)
860                if (next.isCall)
861                {
862                    const RoutineData& rdata = routineMap.find(next.block)->second;
863                    for (const auto& v: rdata.rbwSSAIdMap)
864                    {
865                        auto it = alreadyReadMap.find(v.first);
866                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
867                            alreadyReadMap.erase(it);
868                    }
869                    for (const auto& v: rdata.lastSSAIdMap)
870                    {
871                        auto it = alreadyReadMap.find(v.first);
872                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
873                            alreadyReadMap.erase(it);
874                    }
875                }
876           
877            for (const auto& sentry: cblock.ssaInfoMap)
878            {
879                auto it = alreadyReadMap.find(sentry.first);
880                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
881                    // remove old to resolve in leaved way to allow collecting next ssaId
882                    // before write (can be different due to earlier visit)
883                    alreadyReadMap.erase(it);
884            }
885            std::cout << "  popresolv" << std::endl;
886            flowStack.pop_back();
887        }
888    }
889   
890    resSecondPointsCache.put(nextBlock, cacheSecPoints);
891}
892
893
894static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
895        const std::unordered_map<size_t, RoutineData>& routineMap,
896        const std::vector<CodeBlock>& codeBlocks,
897        const PrevWaysIndexMap& prevWaysIndexMap,
898        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
899        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
900        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
901        SSAReplacesMap& replacesMap)
902{
903    size_t nextBlock = prevFlowStack.back().blockIndex;
904    auto pfEnd = prevFlowStack.end();
905    --pfEnd;
906    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
907    LastSSAIdMap stackVarMap;
908   
909    size_t pfStartIndex = 0;
910    {
911        auto pfPrev = pfEnd;
912        --pfPrev;
913        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
914        if (it != prevWaysIndexMap.end())
915        {
916            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
917            if (cached!=nullptr)
918            {
919                std::cout << "use pfcached: " << it->second.first << ", " <<
920                        it->second.second << std::endl;
921                stackVarMap = *cached;
922                pfStartIndex = it->second.second+1;
923            }
924        }
925    }
926   
927    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
928    {
929        const FlowStackEntry2& entry = *pfit;
930        std::cout << "  apply: " << entry.blockIndex << std::endl;
931        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
932        for (const auto& sentry: cblock.ssaInfoMap)
933        {
934            const SSAInfo& sinfo = sentry.second;
935            if (sinfo.ssaIdChange != 0)
936                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
937        }
938        if (entry.nextIndex > cblock.nexts.size())
939            for (const NextBlock& next: cblock.nexts)
940                if (next.isCall)
941                {
942                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
943                            entry.nextIndex << ": " << next.block << std::endl;
944                    const LastSSAIdMap& regVarMap =
945                            routineMap.find(next.block)->second.lastSSAIdMap;
946                    for (const auto& sentry: regVarMap)
947                        stackVarMap[sentry.first] = sentry.second;
948                }
949       
950        // put to first point cache
951        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
952        {
953            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
954            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
955        }
956    }
957   
958    RBWSSAIdMap cacheSecPoints;
959    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
960                cblocksToCache.count(nextBlock)>=2;
961   
962    //std::stack<CallStackEntry> callStack = prevCallStack;
963    // traverse by graph from next block
964    std::deque<FlowStackEntry2> flowStack;
965    flowStack.push_back({ nextBlock, 0 });
966    std::vector<bool> visited(codeBlocks.size(), false);
967   
968    // already read in current path
969    // key - vreg, value - source block where vreg of conflict found
970    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
971   
972    while (!flowStack.empty())
973    {
974        FlowStackEntry2& entry = flowStack.back();
975        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
976       
977        if (entry.nextIndex == 0)
978        {
979            // process current block
980            if (!visited[entry.blockIndex])
981            {
982                visited[entry.blockIndex] = true;
983                std::cout << "  resolv: " << entry.blockIndex << std::endl;
984               
985                const RBWSSAIdMap* resSecondPoints =
986                        resSecondPointsCache.use(entry.blockIndex);
987                if (resSecondPoints == nullptr)
988                    for (auto& sentry: cblock.ssaInfoMap)
989                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
990                                alreadyReadMap, entry, sentry,
991                                toCache ? &cacheSecPoints : nullptr);
992                else // to use cache
993                {
994                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
995                            resSecondPoints, entry.blockIndex,
996                            toCache ? &cacheSecPoints : nullptr);
997                    flowStack.pop_back();
998                    continue;
999                }
1000            }
1001            else
1002            {
1003                cblocksToCache.increase(entry.blockIndex);
1004                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1005                            cblocksToCache.count(entry.blockIndex) << std::endl;
1006                // back, already visited
1007                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1008                flowStack.pop_back();
1009                continue;
1010            }
1011        }
1012       
1013        /*if (!callStack.empty() &&
1014            entry.blockIndex == callStack.top().callBlock &&
1015            entry.nextIndex-1 == callStack.top().callNextIndex)
1016            callStack.pop(); // just return from call
1017        */
1018        if (entry.nextIndex < cblock.nexts.size())
1019        {
1020            /*if (cblock.nexts[entry.nextIndex].isCall)
1021                callStack.push({ entry.blockIndex, entry.nextIndex,
1022                            cblock.nexts[entry.nextIndex].block });*/
1023            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1024            entry.nextIndex++;
1025        }
1026        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1027                // if have any call then go to next block
1028                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1029                 !cblock.haveReturn && !cblock.haveEnd)
1030        {
1031            // add toResolveMap ssaIds inside called routines
1032            for (const auto& next: cblock.nexts)
1033                if (next.isCall)
1034                {
1035                    const RoutineData& rdata = routineMap.find(next.block)->second;
1036                    for (const auto& v: rdata.rbwSSAIdMap)
1037                        alreadyReadMap.insert({v.first, entry.blockIndex });
1038                    for (const auto& v: rdata.lastSSAIdMap)
1039                        alreadyReadMap.insert({v.first, entry.blockIndex });
1040                }
1041           
1042            flowStack.push_back({ entry.blockIndex+1, 0 });
1043            entry.nextIndex++;
1044        }
1045        else // back
1046        {
1047            // remove old to resolve in leaved way to allow collecting next ssaId
1048            // before write (can be different due to earlier visit)
1049            for (const auto& next: cblock.nexts)
1050                if (next.isCall)
1051                {
1052                    const RoutineData& rdata = routineMap.find(next.block)->second;
1053                    for (const auto& v: rdata.rbwSSAIdMap)
1054                    {
1055                        auto it = alreadyReadMap.find(v.first);
1056                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1057                            alreadyReadMap.erase(it);
1058                    }
1059                    for (const auto& v: rdata.lastSSAIdMap)
1060                    {
1061                        auto it = alreadyReadMap.find(v.first);
1062                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1063                            alreadyReadMap.erase(it);
1064                    }
1065                }
1066           
1067            for (const auto& sentry: cblock.ssaInfoMap)
1068            {
1069                auto it = alreadyReadMap.find(sentry.first);
1070                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1071                    // remove old to resolve in leaved way to allow collecting next ssaId
1072                    // before write (can be different due to earlier visit)
1073                    alreadyReadMap.erase(it);
1074            }
1075            std::cout << "  popresolv" << std::endl;
1076           
1077            if (cblocksToCache.count(entry.blockIndex)==2 &&
1078                !resSecondPointsCache.hasKey(entry.blockIndex))
1079                // add to cache
1080                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1081                            entry.blockIndex);
1082           
1083            flowStack.pop_back();
1084        }
1085    }
1086   
1087    if (toCache)
1088        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1089}
1090
1091static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1092                size_t routineBlock)
1093{
1094    for (const auto& entry: src)
1095    {
1096        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1097                cxuint(entry.first.index) << ":";
1098        for (size_t v: entry.second)
1099            std::cout << " " << v;
1100        std::cout << std::endl;
1101        // insert if not inserted
1102        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1103        if (res.second)
1104            continue; // added new
1105        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1106        res.first->second.routines.push_back(routineBlock);
1107        // add new ways
1108        for (size_t ssaId: entry.second)
1109            destEntry.insertValue(ssaId);
1110        std::cout << "    :";
1111        for (size_t v: destEntry)
1112            std::cout << " " << v;
1113        std::cout << std::endl;
1114    }
1115}
1116
1117static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1118{
1119    for (const auto& entry: src)
1120    {
1121        std::cout << "  entry: " << entry.first.regVar << ":" <<
1122                cxuint(entry.first.index) << ":";
1123        for (size_t v: entry.second)
1124            std::cout << " " << v;
1125        std::cout << std::endl;
1126        auto res = dest.insert(entry); // find
1127        if (res.second)
1128            continue; // added new
1129        VectorSet<size_t>& destEntry = res.first->second;
1130        // add new ways
1131        for (size_t ssaId: entry.second)
1132            destEntry.insertValue(ssaId);
1133        std::cout << "    :";
1134        for (size_t v: destEntry)
1135            std::cout << " " << v;
1136        std::cout << std::endl;
1137    }
1138}
1139
1140static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1141{
1142    // insert readBeforeWrite only if doesnt exists in destination
1143    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1144   
1145    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1146   
1147    for (const auto& entry: src.lastSSAIdMap)
1148    {
1149        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1150                cxuint(entry.first.index) << ":";
1151        for (size_t v: entry.second)
1152            std::cout << " " << v;
1153        std::cout << std::endl;
1154        auto res = dest.curSSAIdMap.insert(entry); // find
1155        VectorSet<size_t>& destEntry = res.first->second;
1156        if (!res.second)
1157        {
1158            // add new ways
1159            for (size_t ssaId: entry.second)
1160                destEntry.insertValue(ssaId);
1161        }
1162        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1163        if (rbwit != src.rbwSSAIdMap.end())
1164            destEntry.eraseValue(rbwit->second);
1165        std::cout << "    :";
1166        for (size_t v: destEntry)
1167            std::cout << " " << v;
1168        std::cout << std::endl;
1169    }
1170}
1171
1172static void reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1173            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1174            SSAReplacesMap& ssaReplacesMap, SSAEntry& ssaEntry)
1175{
1176    SSAInfo& sinfo = ssaEntry.second;
1177    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1178    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1179    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1180    {
1181        auto& ssaIds = ssaIdsIt->second.ssaIds;
1182       
1183        if (ssaIds.size() >= 2)
1184        {
1185            // reduce to minimal ssaId from all calls
1186            std::sort(ssaIds.begin(), ssaIds.end());
1187            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1188            // insert SSA replaces
1189            size_t minSSAId = ssaIds.front();
1190            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1191                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1192            ssaId = minSSAId+1; // plus one
1193        }
1194        else if (ssaIds.size() == 1)
1195            ssaId = ssaIds.front()+1; // plus one
1196       
1197        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1198                ssaEntry.first.index << ": " << ssaId << std::endl;
1199        // replace smallest ssaId in routineMap lastSSAId entry
1200        // reduce SSAIds replaces
1201        for (size_t rblock: ssaIdsIt->second.routines)
1202            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1203                            VectorSet<size_t>({ ssaId-1 });
1204        // finally remove from container (because obsolete)
1205        retSSAIdMap.erase(ssaIdsIt);
1206    }
1207}
1208
1209static void updateRoutineData(RoutineData& rdata, SSAEntry& ssaEntry)
1210{
1211    const SSAInfo& sinfo = ssaEntry.second;
1212    // put first SSAId before write
1213    if (sinfo.readBeforeWrite)
1214    {
1215        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1216        rdata.rbwSSAIdMap.insert({ ssaEntry.first, sinfo.ssaIdBefore });
1217    }
1218   
1219    if (sinfo.ssaIdChange != 0)
1220    {
1221        // put last SSAId
1222        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1223        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1224        if (!res.second)
1225        {
1226            // if not inserted
1227            VectorSet<size_t>& ssaIds = res.first->second;
1228            if (sinfo.readBeforeWrite)
1229                ssaIds.eraseValue(sinfo.ssaIdBefore);
1230            ssaIds.insertValue(sinfo.ssaIdLast);
1231        }
1232    }
1233}
1234
1235static void initializePrevRetSSAIds(const RetSSAIdMap& retSSAIdMap,
1236            const RoutineData& rdata, FlowStackEntry& entry)
1237{
1238    for (const auto& v: rdata.lastSSAIdMap)
1239    {
1240        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1241        if (!res.second)
1242            continue; // already added, do not change
1243        auto rfit = retSSAIdMap.find(v.first);
1244        if (rfit != retSSAIdMap.end())
1245            res.first->second = rfit->second;
1246    }
1247}
1248
1249static void revertRetSSAIdMap(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1250            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1251{
1252    // revert retSSAIdMap
1253    for (auto v: entry.prevRetSSAIdSets)
1254    {
1255        auto rfit = retSSAIdMap.find(v.first);
1256        if (rdata!=nullptr)
1257        {
1258            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1259            for (size_t ssaId: rfit->second.ssaIds)
1260                ssaIds.eraseValue(ssaId);
1261        }
1262       
1263        if (!v.second.ssaIds.empty())
1264            rfit->second = v.second;
1265        else // erase if empty
1266            retSSAIdMap.erase(v.first);
1267       
1268        if (rdata!=nullptr)
1269        {
1270            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1271            for (size_t ssaId: v.second.ssaIds)
1272                ssaIds.insertValue(ssaId);
1273            if (v.second.ssaIds.empty())
1274                ssaIds.push_back(curSSAIdMap[v.first]-1);
1275           
1276            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1277                    v.first.regVar << ":" << v.first.index << ":";
1278            for (size_t v: ssaIds)
1279                std::cout << " " << v;
1280            std::cout << std::endl;
1281        }
1282    }
1283}
1284
1285static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1286            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1287{
1288    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1289    std::cout << " pushentry " << entry.blockIndex << ": " <<
1290                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1291    for (size_t v: ssaIds)
1292        std::cout << " " << v;
1293    std::cout << std::endl;
1294   
1295    // if cblock with some children
1296    if (nextSSAId != curSSAId)
1297        ssaIds.eraseValue(nextSSAId-1);
1298   
1299    // push previous SSAId to lastSSAIdMap (later will be replaced)
1300    /*std::cout << "call back: " << nextSSAId << "," <<
1301            (curSSAId) << std::endl;*/
1302    ssaIds.insertValue(curSSAId-1);
1303   
1304    std::cout << " popentry " << entry.blockIndex << ": " <<
1305                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1306    for (size_t v: ssaIds)
1307        std::cout << " " << v;
1308    std::cout << std::endl;
1309}
1310
1311void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1312{
1313    if (codeBlocks.empty())
1314        return;
1315    usageHandler.rewind();
1316    auto cbit = codeBlocks.begin();
1317    AsmRegVarUsage rvu;
1318    if (!usageHandler.hasNext())
1319        return; // do nothing if no regusages
1320    rvu = usageHandler.nextUsage();
1321   
1322    cxuint regRanges[MAX_REGTYPES_NUM*2];
1323    cxuint realRegsCount[MAX_REGTYPES_NUM];
1324    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1325    size_t regTypesNum;
1326    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1327   
1328    while (true)
1329    {
1330        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1331        {
1332            cbit->usagePos = usageHandler.getReadPos();
1333            ++cbit;
1334        }
1335        if (cbit == codeBlocks.end())
1336            break;
1337        // skip rvu's before codeblock
1338        while (rvu.offset < cbit->start && usageHandler.hasNext())
1339            rvu = usageHandler.nextUsage();
1340        if (rvu.offset < cbit->start)
1341            break;
1342       
1343        cbit->usagePos = usageHandler.getReadPos();
1344        while (rvu.offset < cbit->end)
1345        {
1346            // process rvu
1347            // only if regVar
1348            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1349            {
1350                auto res = cbit->ssaInfoMap.insert(
1351                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1352               
1353                SSAInfo& sinfo = res.first->second;
1354                if (res.second)
1355                    sinfo.firstPos = rvu.offset;
1356                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1357                    // if first write RVU instead read RVU
1358                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1359                    sinfo.readBeforeWrite = true;
1360                /* change SSA id only for write-only regvars -
1361                 *   read-write place can not have two different variables */
1362                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1363                    sinfo.ssaIdChange++;
1364                if (rvu.regVar==nullptr)
1365                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1366                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1367            }
1368            // get next rvusage
1369            if (!usageHandler.hasNext())
1370                break;
1371            rvu = usageHandler.nextUsage();
1372        }
1373        ++cbit;
1374    }
1375   
1376    size_t rbwCount = 0;
1377    size_t wrCount = 0;
1378   
1379    std::deque<CallStackEntry> callStack;
1380    std::deque<FlowStackEntry> flowStack;
1381    // total SSA count
1382    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1383    // last SSA ids map from returns
1384    RetSSAIdMap retSSAIdMap;
1385    // last SSA ids in current way in code flow
1386    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1387    // routine map - routine datas map, value - last SSA ids map
1388    std::unordered_map<size_t, RoutineData> routineMap;
1389    // key - current res first key, value - previous first key and its flowStack pos
1390    PrevWaysIndexMap prevWaysIndexMap;
1391    // to track ways last block indices pair: block index, flowStackPos)
1392    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1393   
1394    std::vector<bool> waysToCache(codeBlocks.size(), false);
1395    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1396    std::vector<bool> visited(codeBlocks.size(), false);
1397    flowStack.push_back({ 0, 0 });
1398   
1399    while (!flowStack.empty())
1400    {
1401        FlowStackEntry& entry = flowStack.back();
1402        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1403       
1404        if (entry.nextIndex == 0)
1405        {
1406            // process current block
1407            if (!visited[entry.blockIndex])
1408            {
1409                std::cout << "proc: " << entry.blockIndex << std::endl;
1410                visited[entry.blockIndex] = true;
1411               
1412                for (auto& ssaEntry: cblock.ssaInfoMap)
1413                {
1414                    SSAInfo& sinfo = ssaEntry.second;
1415                    if (ssaEntry.first.regVar==nullptr)
1416                    {
1417                        // TODO - pass registers through SSA marking and resolving
1418                        sinfo.ssaIdChange = 0; // zeroing SSA changes
1419                        continue; // no change for registers
1420                    }
1421                   
1422                    reduceSSAIds(curSSAIdMap, retSSAIdMap, routineMap, ssaReplacesMap,
1423                                 ssaEntry);
1424                   
1425                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1426                   
1427                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
1428                    if (totalSSACount == 0)
1429                    {
1430                        // first read before write at all, need change totalcount, ssaId
1431                        ssaId++;
1432                        totalSSACount++;
1433                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
1434                    }
1435                    else if (ssaId != totalSSACount) // save old ssaId
1436                        entry.prevSSAIds.insert({ ssaEntry.first, ssaId });
1437                   
1438                    sinfo.ssaId = totalSSACount;
1439                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1440                    sinfo.ssaIdBefore = ssaId-1;
1441                   
1442                    totalSSACount += sinfo.ssaIdChange;
1443                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
1444                    //totalSSACount = std::max(totalSSACount, ssaId);
1445                    ssaId = totalSSACount;
1446                   
1447                    if (!callStack.empty())
1448                        // put data to routine data
1449                        updateRoutineData(routineMap.find(
1450                            callStack.back().routineBlock)->second, ssaEntry);
1451                       
1452                    // count read before writes (for cache weight)
1453                    if (sinfo.readBeforeWrite)
1454                        rbwCount++;
1455                    if (sinfo.ssaIdChange!=0)
1456                        wrCount++;
1457                }
1458            }
1459            else
1460            {
1461                // TODO: correctly join this path with routine data
1462                // currently does not include further substitutions in visited path
1463                RoutineData* rdata = nullptr;
1464                if (!callStack.empty())
1465                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1466               
1467                if (!entry.isCall && rdata != nullptr)
1468                {
1469                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1470                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1471                    std::cout << "procretend2" << std::endl;
1472                }
1473               
1474                // handle caching for res second point
1475                cblocksToCache.increase(entry.blockIndex);
1476                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1477                            cblocksToCache.count(entry.blockIndex) << std::endl;
1478                // back, already visited
1479                flowStack.pop_back();
1480               
1481                size_t curWayBIndex = flowStack.back().blockIndex;
1482                if (lastCommonCacheWayPoint.first != SIZE_MAX)
1483                {
1484                    // mark point of way to cache (res first point)
1485                    waysToCache[lastCommonCacheWayPoint.first] = true;
1486                    std::cout << "mark to pfcache " <<
1487                            lastCommonCacheWayPoint.first << ", " <<
1488                            curWayBIndex << std::endl;
1489                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
1490                }
1491                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1492                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
1493                continue;
1494            }
1495        }
1496       
1497        if (!callStack.empty() &&
1498            entry.blockIndex == callStack.back().callBlock &&
1499            entry.nextIndex-1 == callStack.back().callNextIndex)
1500        {
1501            std::cout << " ret: " << entry.blockIndex << std::endl;
1502            const RoutineData& prevRdata =
1503                    routineMap.find(callStack.back().routineBlock)->second;
1504            callStack.pop_back(); // just return from call
1505            if (!callStack.empty())
1506                // put to parent routine
1507                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
1508                                    prevRdata);
1509        }
1510       
1511        if (entry.nextIndex < cblock.nexts.size())
1512        {
1513            bool isCall = false;
1514            if (cblock.nexts[entry.nextIndex].isCall)
1515            {
1516                std::cout << " call: " << entry.blockIndex << std::endl;
1517                callStack.push_back({ entry.blockIndex, entry.nextIndex,
1518                            cblock.nexts[entry.nextIndex].block });
1519                routineMap.insert({ cblock.nexts[entry.nextIndex].block, { } });
1520                isCall = true;
1521            }
1522           
1523            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0, isCall });
1524            entry.nextIndex++;
1525        }
1526        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1527                // if have any call then go to next block
1528                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1529                 !cblock.haveReturn && !cblock.haveEnd)
1530        {
1531            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1532            {
1533                for (const NextBlock& next: cblock.nexts)
1534                    if (next.isCall)
1535                    {
1536                        //std::cout << "joincall:"<< next.block << std::endl;
1537                        auto it = routineMap.find(next.block); // must find
1538                        initializePrevRetSSAIds(retSSAIdMap, it->second, entry);
1539                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1540                    }
1541            }
1542            flowStack.push_back({ entry.blockIndex+1, 0, false });
1543            entry.nextIndex++;
1544        }
1545        else // back
1546        {
1547            RoutineData* rdata = nullptr;
1548            if (!callStack.empty())
1549                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1550           
1551            if (cblock.haveReturn && rdata != nullptr)
1552            {
1553                std::cout << "procret: " << entry.blockIndex << std::endl;
1554                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1555                std::cout << "procretend" << std::endl;
1556            }
1557           
1558            // revert retSSAIdMap
1559            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
1560            //
1561           
1562            for (const auto& ssaEntry: cblock.ssaInfoMap)
1563            {
1564                if (ssaEntry.first.regVar == nullptr)
1565                    continue;
1566               
1567                auto it = entry.prevSSAIds.find(ssaEntry.first);
1568                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
1569                const size_t nextSSAId = curSSAId;
1570                if (it == entry.prevSSAIds.end())
1571                    curSSAId -= ssaEntry.second.ssaIdChange;
1572                else // if found
1573                    curSSAId = it->second;
1574               
1575                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1576                            ":" << ssaEntry.first.index << ": " <<
1577                            nextSSAId << ", " << curSSAId << std::endl;
1578               
1579                if (rdata!=nullptr)
1580                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
1581            }
1582           
1583            std::cout << "pop: " << entry.blockIndex << std::endl;
1584            flowStack.pop_back();
1585            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
1586                    lastCommonCacheWayPoint.second >= flowStack.size())
1587            {
1588                lastCommonCacheWayPoint =
1589                        { flowStack.back().blockIndex, flowStack.size()-1 };
1590                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
1591            }
1592        }
1593    }
1594   
1595    /**********
1596     * after that, we find points to resolve conflicts
1597     **********/
1598    flowStack.clear();
1599    std::deque<FlowStackEntry2> flowStack2;
1600   
1601    std::fill(visited.begin(), visited.end(), false);
1602    flowStack2.push_back({ 0, 0 });
1603   
1604    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
1605    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
1606   
1607    while (!flowStack2.empty())
1608    {
1609        FlowStackEntry2& entry = flowStack2.back();
1610        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1611       
1612        if (entry.nextIndex == 0)
1613        {
1614            // process current block
1615            if (!visited[entry.blockIndex])
1616                visited[entry.blockIndex] = true;
1617            else
1618            {
1619                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
1620                            prevWaysIndexMap, waysToCache, cblocksToCache,
1621                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
1622               
1623                // join routine data
1624                /*auto rit = routineMap.find(entry.blockIndex);
1625                if (rit != routineMap.end())
1626                    // just join with current routine data
1627                    joinRoutineData(routineMap.find(
1628                            callStack.back().routineBlock)->second, rit->second);*/
1629                /*if (!callStack.empty())
1630                    collectSSAIdsForCall(flowStack2, callStack, visited,
1631                            routineMap, codeBlocks);*/
1632                // back, already visited
1633                flowStack2.pop_back();
1634                continue;
1635            }
1636        }
1637       
1638        if (entry.nextIndex < cblock.nexts.size())
1639        {
1640            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1641            entry.nextIndex++;
1642        }
1643        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1644                // if have any call then go to next block
1645                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1646                 !cblock.haveReturn && !cblock.haveEnd)
1647        {
1648            flowStack2.push_back({ entry.blockIndex+1, 0 });
1649            entry.nextIndex++;
1650        }
1651        else // back
1652        {
1653            if (cblocksToCache.count(entry.blockIndex)==2 &&
1654                !resSecondPointsCache.hasKey(entry.blockIndex))
1655                // add to cache
1656                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1657                            entry.blockIndex);
1658            flowStack2.pop_back();
1659        }
1660    }
1661}
1662
1663void AsmRegAllocator::applySSAReplaces()
1664{
1665    /* prepare SSA id replaces */
1666    struct MinSSAGraphNode
1667    {
1668        size_t minSSAId;
1669        bool visited;
1670        std::unordered_set<size_t> nexts;
1671        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
1672    };
1673    struct MinSSAGraphStackEntry
1674    {
1675        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
1676        std::unordered_set<size_t>::const_iterator nextIt;
1677        size_t minSSAId;
1678    };
1679   
1680    for (auto& entry: ssaReplacesMap)
1681    {
1682        std::vector<SSAReplace>& replaces = entry.second;
1683        std::sort(replaces.begin(), replaces.end());
1684        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
1685        std::vector<SSAReplace> newReplaces;
1686       
1687        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
1688       
1689        auto it = replaces.begin();
1690        while (it != replaces.end())
1691        {
1692            auto itEnd = std::upper_bound(it, replaces.end(),
1693                            std::make_pair(it->first, size_t(SIZE_MAX)));
1694            {
1695                MinSSAGraphNode& node = ssaGraphNodes[it->first];
1696                node.minSSAId = std::min(node.minSSAId, it->second);
1697                for (auto it2 = it; it2 != itEnd; ++it2)
1698                    node.nexts.insert(it->second);
1699            }
1700            it = itEnd;
1701        }
1702        // propagate min value
1703        std::stack<MinSSAGraphStackEntry> minSSAStack;
1704        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
1705                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
1706        {
1707            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
1708            // traverse with minimalize SSA id
1709            while (!minSSAStack.empty())
1710            {
1711                MinSSAGraphStackEntry& entry = minSSAStack.top();
1712                MinSSAGraphNode& node = entry.nodeIt->second;
1713                bool toPop = false;
1714                if (entry.nextIt == node.nexts.begin())
1715                {
1716                    if (!node.visited)
1717                        node.visited = true;
1718                    else
1719                        toPop = true;
1720                }
1721                if (!toPop && entry.nextIt != node.nexts.end())
1722                {
1723                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
1724                    if (nodeIt != ssaGraphNodes.end())
1725                    {
1726                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
1727                                nodeIt->second.minSSAId });
1728                    }
1729                    ++entry.nextIt;
1730                }
1731                else
1732                {
1733                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
1734                    minSSAStack.pop();
1735                    if (!minSSAStack.empty())
1736                    {
1737                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
1738                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
1739                    }
1740                }
1741            }
1742            // skip visited nodes
1743            while (ssaGraphNodeIt != ssaGraphNodes.end())
1744                if (!ssaGraphNodeIt->second.visited)
1745                    break;
1746        }
1747       
1748        for (const auto& entry: ssaGraphNodes)
1749            newReplaces.push_back({ entry.first, entry.second.minSSAId });
1750       
1751        std::sort(newReplaces.begin(), newReplaces.end());
1752        entry.second = newReplaces;
1753    }
1754   
1755    /* apply SSA id replaces */
1756    for (CodeBlock& cblock: codeBlocks)
1757        for (auto& ssaEntry: cblock.ssaInfoMap)
1758        {
1759            auto it = ssaReplacesMap.find(ssaEntry.first);
1760            if (it == ssaReplacesMap.end())
1761                continue;
1762            SSAInfo& sinfo = ssaEntry.second;
1763            std::vector<SSAReplace>& replaces = it->second;
1764            if (sinfo.readBeforeWrite)
1765            {
1766                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1767                                 ssaEntry.second.ssaIdBefore);
1768                if (rit != replaces.end())
1769                    sinfo.ssaIdBefore = rit->second; // replace
1770            }
1771            if (sinfo.ssaIdFirst != SIZE_MAX)
1772            {
1773                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1774                                 ssaEntry.second.ssaIdFirst);
1775                if (rit != replaces.end())
1776                    sinfo.ssaIdFirst = rit->second; // replace
1777            }
1778            if (sinfo.ssaIdLast != SIZE_MAX)
1779            {
1780                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
1781                                 ssaEntry.second.ssaIdLast);
1782                if (rit != replaces.end())
1783                    sinfo.ssaIdLast = rit->second; // replace
1784            }
1785        }
1786}
1787
1788struct Liveness
1789{
1790    std::map<size_t, size_t> l;
1791   
1792    Liveness() { }
1793   
1794    void clear()
1795    { l.clear(); }
1796   
1797    void expand(size_t k)
1798    {
1799        if (l.empty())
1800            l.insert(std::make_pair(k, k+1));
1801        else
1802        {
1803            auto it = l.end();
1804            --it;
1805            it->second = k+1;
1806        }
1807    }
1808    void newRegion(size_t k)
1809    {
1810        if (l.empty())
1811            l.insert(std::make_pair(k, k));
1812        else
1813        {
1814            auto it = l.end();
1815            --it;
1816            if (it->first != k && it->second != k)
1817                l.insert(std::make_pair(k, k));
1818        }
1819    }
1820   
1821    void insert(size_t k, size_t k2)
1822    {
1823        auto it1 = l.lower_bound(k);
1824        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
1825            --it1;
1826        if (it1->second < k)
1827            ++it1;
1828        auto it2 = l.lower_bound(k2);
1829        if (it1!=it2)
1830        {
1831            k = std::min(k, it1->first);
1832            k2 = std::max(k2, (--it2)->second);
1833            l.erase(it1, it2);
1834        }
1835        l.insert(std::make_pair(k, k2));
1836    }
1837   
1838    bool contain(size_t t) const
1839    {
1840        auto it = l.lower_bound(t);
1841        if (it==l.begin() && it->first>t)
1842            return false;
1843        if (it==l.end() || it->first>t)
1844            --it;
1845        return it->first<=t && t<it->second;
1846    }
1847   
1848    bool common(const Liveness& b) const
1849    {
1850        auto i = l.begin();
1851        auto j = b.l.begin();
1852        for (; i != l.end() && j != b.l.end();)
1853        {
1854            if (i->first==i->second)
1855            {
1856                ++i;
1857                continue;
1858            }
1859            if (j->first==j->second)
1860            {
1861                ++j;
1862                continue;
1863            }
1864            if (i->first<j->first)
1865            {
1866                if (i->second > j->first)
1867                    return true; // common place
1868                ++i;
1869            }
1870            else
1871            {
1872                if (i->first < j->second)
1873                    return true; // common place
1874                ++j;
1875            }
1876        }
1877        return false;
1878    }
1879};
1880
1881typedef AsmRegAllocator::VarIndexMap VarIndexMap;
1882
1883static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
1884            const AsmSingleVReg& svreg)
1885{
1886    cxuint regType; // regtype
1887    if (svreg.regVar!=nullptr)
1888        regType = svreg.regVar->type;
1889    else
1890        for (regType = 0; regType < regTypesNum; regType++)
1891            if (svreg.index >= regRanges[regType<<1] &&
1892                svreg.index < regRanges[(regType<<1)+1])
1893                break;
1894    return regType;
1895}
1896
1897static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
1898        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
1899        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
1900{
1901    size_t ssaId;
1902    if (svreg.regVar==nullptr)
1903        ssaId = 0;
1904    else if (ssaIdIdx==0)
1905        ssaId = ssaInfo.ssaIdBefore;
1906    else if (ssaIdIdx==1)
1907        ssaId = ssaInfo.ssaIdFirst;
1908    else if (ssaIdIdx<ssaInfo.ssaIdChange)
1909        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
1910    else // last
1911        ssaId = ssaInfo.ssaIdLast;
1912   
1913    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
1914    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1915    const std::vector<size_t>& ssaIdIndices =
1916                vregIndexMap.find(svreg)->second;
1917    return livenesses[regType][ssaIdIndices[ssaId]];
1918}
1919
1920typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
1921
1922struct CLRX_INTERNAL VRegLastPos
1923{
1924    size_t ssaId; // last SSA id
1925    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
1926};
1927
1928/* TODO: add handling calls
1929 * handle many start points in this code (for example many kernel's in same code)
1930 * replace sets by vector, and sort and remove same values on demand
1931 */
1932
1933typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
1934
1935static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
1936        const std::vector<CodeBlock>& codeBlocks,
1937        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
1938        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
1939        size_t regTypesNum, const cxuint* regRanges)
1940{
1941    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
1942    for (const auto& entry: cblock.ssaInfoMap)
1943        if (entry.second.readBeforeWrite)
1944        {
1945            // find last
1946            auto lvrit = lastVRegMap.find(entry.first);
1947            if (lvrit == lastVRegMap.end())
1948                continue; // not found
1949            const VRegLastPos& lastPos = lvrit->second;
1950            FlowStackCIter flit = lastPos.blockChain.back();
1951            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
1952            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
1953            const std::vector<size_t>& ssaIdIndices =
1954                        vregIndexMap.find(entry.first)->second;
1955            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
1956            FlowStackCIter flitEnd = flowStack.end();
1957            --flitEnd; // before last element
1958            // insert live time to last seen position
1959            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
1960            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
1961            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
1962                    toLiveCvt + lastBlk.end);
1963            for (++flit; flit != flitEnd; ++flit)
1964            {
1965                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1966                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
1967                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
1968            }
1969        }
1970}
1971
1972static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
1973        const std::vector<CodeBlock>& codeBlocks,
1974        const Array<size_t>& codeBlockLiveTimes,
1975        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
1976        size_t regTypesNum, const cxuint* regRanges)
1977{
1978    auto flitStart = flowStack.end();
1979    --flitStart;
1980    size_t curBlock = flitStart->blockIndex;
1981    // find step in way
1982    while (flitStart->blockIndex != curBlock) --flitStart;
1983    auto flitEnd = flowStack.end();
1984    --flitEnd;
1985    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
1986   
1987    // collect var to check
1988    size_t flowPos = 0;
1989    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
1990    {
1991        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
1992        for (const auto& entry: cblock.ssaInfoMap)
1993        {
1994            const SSAInfo& sinfo = entry.second;
1995            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
1996                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
1997            varMap[entry.first] = { lastSSAId, flowPos };
1998        }
1999    }
2000    // find connections
2001    flowPos = 0;
2002    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2003    {
2004        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2005        for (const auto& entry: cblock.ssaInfoMap)
2006        {
2007            const SSAInfo& sinfo = entry.second;
2008            auto varMapIt = varMap.find(entry.first);
2009            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2010                flowPos > varMapIt->second.second ||
2011                sinfo.ssaIdBefore != varMapIt->second.first)
2012                continue;
2013            // just connect
2014           
2015            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2016            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2017            const std::vector<size_t>& ssaIdIndices =
2018                        vregIndexMap.find(entry.first)->second;
2019            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2020           
2021            if (flowPos == varMapIt->second.second)
2022            {
2023                // fill whole loop
2024                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2025                {
2026                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2027                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2028                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2029                }
2030                continue;
2031            }
2032           
2033            size_t flowPos2 = 0;
2034            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2035            {
2036                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2037                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2038                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2039            }
2040            // insert liveness for last block in loop of last SSAId (prev round)
2041            auto flit2 = flitStart + flowPos;
2042            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2043            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2044            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2045                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2046            // insert liveness for first block in loop of last SSAId
2047            flit2 = flitStart + (varMapIt->second.second+1);
2048            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2049            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2050            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2051                    toLiveCvt + lastBlk.end);
2052            // fill up loop end
2053            for (++flit2; flit2 != flitEnd; ++flit2)
2054            {
2055                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2056                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2057                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2058            }
2059        }
2060    }
2061}
2062
2063struct LiveBlock
2064{
2065    size_t start;
2066    size_t end;
2067    size_t vidx;
2068   
2069    bool operator==(const LiveBlock& b) const
2070    { return start==b.start && end==b.end && vidx==b.vidx; }
2071   
2072    bool operator<(const LiveBlock& b) const
2073    { return start<b.start || (start==b.start &&
2074            (end<b.end || (end==b.end && vidx<b.vidx))); }
2075};
2076
2077typedef AsmRegAllocator::LinearDep LinearDep;
2078typedef AsmRegAllocator::EqualToDep EqualToDep;
2079typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2080typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2081
2082static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2083            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2084            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2085            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2086            size_t regTypesNum, const cxuint* regRanges)
2087{
2088    // add linear deps
2089    cxuint count = ldeps[0];
2090    cxuint pos = 1;
2091    cxbyte rvuAdded = 0;
2092    for (cxuint i = 0; i < count; i++)
2093    {
2094        cxuint ccount = ldeps[pos++];
2095        std::vector<size_t> vidxes;
2096        cxuint regType = UINT_MAX;
2097        cxbyte align = rvus[ldeps[pos]].align;
2098        for (cxuint j = 0; j < ccount; j++)
2099        {
2100            rvuAdded |= 1U<<ldeps[pos];
2101            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2102            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2103            {
2104                AsmSingleVReg svreg = {rvu.regVar, k};
2105                auto sit = ssaIdIdxMap.find(svreg);
2106                if (regType==UINT_MAX)
2107                    regType = getRegType(regTypesNum, regRanges, svreg);
2108                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2109                const std::vector<size_t>& ssaIdIndices =
2110                            vregIndexMap.find(svreg)->second;
2111                // push variable index
2112                vidxes.push_back(ssaIdIndices[sit->second]);
2113            }
2114        }
2115        ldepsOut[regType][vidxes[0]].align = align;
2116        for (size_t k = 1; k < vidxes.size(); k++)
2117        {
2118            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2119            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2120        }
2121    }
2122    // add single arg linear dependencies
2123    for (cxuint i = 0; i < rvusNum; i++)
2124        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2125        {
2126            const AsmRegVarUsage& rvu = rvus[i];
2127            std::vector<size_t> vidxes;
2128            cxuint regType = UINT_MAX;
2129            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2130            {
2131                AsmSingleVReg svreg = {rvu.regVar, k};
2132                auto sit = ssaIdIdxMap.find(svreg);
2133                if (regType==UINT_MAX)
2134                    regType = getRegType(regTypesNum, regRanges, svreg);
2135                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2136                const std::vector<size_t>& ssaIdIndices =
2137                            vregIndexMap.find(svreg)->second;
2138                // push variable index
2139                vidxes.push_back(ssaIdIndices[sit->second]);
2140            }
2141            for (size_t j = 1; j < vidxes.size(); j++)
2142            {
2143                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2144                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2145            }
2146        }
2147       
2148    /* equalTo dependencies */
2149    count = edeps[0];
2150    pos = 1;
2151    for (cxuint i = 0; i < count; i++)
2152    {
2153        cxuint ccount = edeps[pos++];
2154        std::vector<size_t> vidxes;
2155        cxuint regType = UINT_MAX;
2156        for (cxuint j = 0; j < ccount; j++)
2157        {
2158            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2159            // only one register should be set for equalTo depencencies
2160            // other registers in range will be resolved by linear dependencies
2161            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2162            auto sit = ssaIdIdxMap.find(svreg);
2163            if (regType==UINT_MAX)
2164                regType = getRegType(regTypesNum, regRanges, svreg);
2165            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2166            const std::vector<size_t>& ssaIdIndices =
2167                        vregIndexMap.find(svreg)->second;
2168            // push variable index
2169            vidxes.push_back(ssaIdIndices[sit->second]);
2170        }
2171        for (size_t j = 1; j < vidxes.size(); j++)
2172        {
2173            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2174            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2175        }
2176    }
2177}
2178
2179typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2180
2181struct EqualStackEntry
2182{
2183    EqualToDepMapCIter etoDepIt;
2184    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2185};
2186
2187void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2188{
2189    // construct var index maps
2190    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2191    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2192    cxuint regRanges[MAX_REGTYPES_NUM*2];
2193    size_t regTypesNum;
2194    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2195   
2196    for (const CodeBlock& cblock: codeBlocks)
2197        for (const auto& entry: cblock.ssaInfoMap)
2198        {
2199            const SSAInfo& sinfo = entry.second;
2200            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2201            VarIndexMap& vregIndices = vregIndexMaps[regType];
2202            size_t& graphVregsCount = graphVregsCounts[regType];
2203            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2204            size_t ssaIdCount = 0;
2205            if (sinfo.readBeforeWrite)
2206                ssaIdCount = sinfo.ssaIdBefore+1;
2207            if (sinfo.ssaIdChange!=0)
2208            {
2209                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2210                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2211            }
2212            if (ssaIdIndices.size() < ssaIdCount)
2213                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2214           
2215            if (sinfo.readBeforeWrite)
2216                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2217            if (sinfo.ssaIdChange!=0)
2218            {
2219                // fill up ssaIdIndices (with graph Ids)
2220                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2221                for (size_t ssaId = sinfo.ssaId+1;
2222                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2223                    ssaIdIndices[ssaId] = graphVregsCount++;
2224                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2225            }
2226        }
2227   
2228    // construct vreg liveness
2229    std::deque<FlowStackEntry> flowStack;
2230    std::vector<bool> visited(codeBlocks.size(), false);
2231    // hold last vreg ssaId and position
2232    LastVRegMap lastVRegMap;
2233    // hold start live time position for every code block
2234    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2235    std::unordered_set<size_t> blockInWay;
2236   
2237    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2238   
2239    for (size_t i = 0; i < regTypesNum; i++)
2240        livenesses[i].resize(graphVregsCounts[i]);
2241   
2242    size_t curLiveTime = 0;
2243   
2244    while (!flowStack.empty())
2245    {
2246        FlowStackEntry& entry = flowStack.back();
2247        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2248       
2249        if (entry.nextIndex == 0)
2250        {
2251            // process current block
2252            if (!blockInWay.insert(entry.blockIndex).second)
2253            {
2254                // if loop
2255                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2256                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2257                flowStack.pop_back();
2258                continue;
2259            }
2260           
2261            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2262            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2263                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2264           
2265            for (const auto& sentry: cblock.ssaInfoMap)
2266            {
2267                const SSAInfo& sinfo = sentry.second;
2268                // update
2269                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2270                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2271                FlowStackCIter flit = flowStack.end();
2272                --flit; // to last position
2273                auto res = lastVRegMap.insert({ sentry.first, 
2274                            { lastSSAId, { flit } } });
2275                if (!res.second) // if not first seen, just update
2276                {
2277                    // update last
2278                    res.first->second.ssaId = lastSSAId;
2279                    res.first->second.blockChain.push_back(flit);
2280                }
2281            }
2282           
2283            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2284            if (!visited[entry.blockIndex])
2285            {
2286                visited[entry.blockIndex] = true;
2287                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2288                AsmRegVarUsage instrRVUs[8];
2289                cxuint instrRVUsCount = 0;
2290               
2291                size_t oldOffset = cblock.usagePos.readOffset;
2292                std::vector<AsmSingleVReg> readSVRegs;
2293                std::vector<AsmSingleVReg> writtenSVRegs;
2294               
2295                usageHandler.setReadPos(cblock.usagePos);
2296                // register in liveness
2297                while (true)
2298                {
2299                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2300                    size_t liveTimeNext = curBlockLiveEnd;
2301                    if (usageHandler.hasNext())
2302                    {
2303                        rvu = usageHandler.nextUsage();
2304                        if (rvu.offset >= cblock.end)
2305                            break;
2306                        if (!rvu.useRegMode)
2307                            instrRVUs[instrRVUsCount++] = rvu;
2308                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2309                                cblock.start + curLiveTime;
2310                    }
2311                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2312                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2313                    {
2314                        // apply to liveness
2315                        for (AsmSingleVReg svreg: readSVRegs)
2316                        {
2317                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2318                                    cblock.ssaInfoMap.find(svreg)->second,
2319                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2320                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2321                                lv.newRegion(curLiveTime); // begin region from this block
2322                            lv.expand(liveTime);
2323                        }
2324                        for (AsmSingleVReg svreg: writtenSVRegs)
2325                        {
2326                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2327                            ssaIdIdx++;
2328                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2329                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2330                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2331                            if (liveTimeNext != curBlockLiveEnd)
2332                                // because live after this instr
2333                                lv.newRegion(liveTimeNext);
2334                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2335                        }
2336                        // get linear deps and equal to
2337                        cxbyte lDeps[16];
2338                        cxbyte eDeps[16];
2339                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2340                                        lDeps, eDeps);
2341                       
2342                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2343                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2344                                regTypesNum, regRanges);
2345                       
2346                        readSVRegs.clear();
2347                        writtenSVRegs.clear();
2348                        if (!usageHandler.hasNext())
2349                            break; // end
2350                        oldOffset = rvu.offset;
2351                        instrRVUsCount = 0;
2352                    }
2353                    if (rvu.offset >= cblock.end)
2354                        break;
2355                   
2356                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2357                    {
2358                        // per register/singlvreg
2359                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2360                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2361                            writtenSVRegs.push_back(svreg);
2362                        else // read or treat as reading // expand previous region
2363                            readSVRegs.push_back(svreg);
2364                    }
2365                }
2366                curLiveTime += cblock.end-cblock.start;
2367            }
2368            else
2369            {
2370                // back, already visited
2371                flowStack.pop_back();
2372                continue;
2373            }
2374        }
2375        if (entry.nextIndex < cblock.nexts.size())
2376        {
2377            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2378            entry.nextIndex++;
2379        }
2380        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2381        {
2382            flowStack.push_back({ entry.blockIndex+1, 0 });
2383            entry.nextIndex++;
2384        }
2385        else // back
2386        {
2387            // revert lastSSAIdMap
2388            blockInWay.erase(entry.blockIndex);
2389            flowStack.pop_back();
2390            if (!flowStack.empty())
2391            {
2392                for (const auto& sentry: cblock.ssaInfoMap)
2393                {
2394                    auto lvrit = lastVRegMap.find(sentry.first);
2395                    if (lvrit != lastVRegMap.end())
2396                    {
2397                        VRegLastPos& lastPos = lvrit->second;
2398                        lastPos.ssaId = sentry.second.ssaIdBefore;
2399                        lastPos.blockChain.pop_back();
2400                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2401                            lastVRegMap.erase(lvrit);
2402                    }
2403                }
2404            }
2405        }
2406    }
2407   
2408    /// construct liveBlockMaps
2409    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2410    for (size_t regType = 0; regType < regTypesNum; regType++)
2411    {
2412        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2413        std::vector<Liveness>& liveness = livenesses[regType];
2414        for (size_t li = 0; li < liveness.size(); li++)
2415        {
2416            Liveness& lv = liveness[li];
2417            for (const std::pair<size_t, size_t>& blk: lv.l)
2418                if (blk.first != blk.second)
2419                    liveBlockMap.insert({ blk.first, blk.second, li });
2420            lv.clear();
2421        }
2422        liveness.clear();
2423    }
2424   
2425    // create interference graphs
2426    for (size_t regType = 0; regType < regTypesNum; regType++)
2427    {
2428        InterGraph& interGraph = interGraphs[regType];
2429        interGraph.resize(graphVregsCounts[regType]);
2430        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2431       
2432        auto lit = liveBlockMap.begin();
2433        size_t rangeStart = 0;
2434        if (lit != liveBlockMap.end())
2435            rangeStart = lit->start;
2436        while (lit != liveBlockMap.end())
2437        {
2438            const size_t blkStart = lit->start;
2439            const size_t blkEnd = lit->end;
2440            size_t rangeEnd = blkEnd;
2441            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2442            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
2443            // collect from this range, variable indices
2444            std::set<size_t> varIndices;
2445            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
2446                varIndices.insert(lit2->vidx);
2447            // push to intergraph as full subgGraph
2448            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
2449                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2450                    if (vit != vit2)
2451                        interGraph[*vit].insert(*vit2);
2452            // go to next live blocks
2453            rangeStart = rangeEnd;
2454            for (; lit != liveBlockMap.end(); ++lit)
2455                if (lit->start != blkStart && lit->end != blkEnd)
2456                    break;
2457            if (lit == liveBlockMap.end())
2458                break; //
2459            rangeStart = std::max(rangeStart, lit->start);
2460        }
2461    }
2462   
2463    /*
2464     * resolve equalSets
2465     */
2466    for (cxuint regType = 0; regType < regTypesNum; regType++)
2467    {
2468        InterGraph& interGraph = interGraphs[regType];
2469        const size_t nodesNum = interGraph.size();
2470        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2471        std::vector<bool> visited(nodesNum, false);
2472        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2473       
2474        for (size_t v = 0; v < nodesNum;)
2475        {
2476            auto it = etoDepMap.find(v);
2477            if (it == etoDepMap.end())
2478            {
2479                // is not regvar in equalTo dependencies
2480                v++;
2481                continue;
2482            }
2483           
2484            std::stack<EqualStackEntry> etoStack;
2485            etoStack.push(EqualStackEntry{ it, 0 });
2486           
2487            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2488            const size_t equalSetIndex = equalSetList.size();
2489            equalSetList.push_back(std::vector<size_t>());
2490            std::vector<size_t>& equalSet = equalSetList.back();
2491           
2492            // traverse by this
2493            while (!etoStack.empty())
2494            {
2495                EqualStackEntry& entry = etoStack.top();
2496                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2497                const EqualToDep& eToDep = entry.etoDepIt->second;
2498                if (entry.nextIdx == 0)
2499                {
2500                    if (!visited[vidx])
2501                    {
2502                        // push to this equalSet
2503                        equalSetMap.insert({ vidx, equalSetIndex });
2504                        equalSet.push_back(vidx);
2505                    }
2506                    else
2507                    {
2508                        // already visited
2509                        etoStack.pop();
2510                        continue;
2511                    }
2512                }
2513               
2514                if (entry.nextIdx < eToDep.nextVidxes.size())
2515                {
2516                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2517                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2518                    entry.nextIdx++;
2519                }
2520                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2521                {
2522                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2523                                entry.nextIdx - eToDep.nextVidxes.size()]);
2524                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2525                    entry.nextIdx++;
2526                }
2527                else
2528                    etoStack.pop();
2529            }
2530           
2531            // to first already added node (var)
2532            while (v < nodesNum && !visited[v]) v++;
2533        }
2534    }
2535}
2536
2537typedef AsmRegAllocator::InterGraph InterGraph;
2538
2539struct CLRX_INTERNAL SDOLDOCompare
2540{
2541    const InterGraph& interGraph;
2542    const Array<size_t>& sdoCounts;
2543   
2544    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2545        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2546    { }
2547   
2548    bool operator()(size_t a, size_t b) const
2549    {
2550        if (sdoCounts[a] > sdoCounts[b])
2551            return true;
2552        return interGraph[a].size() > interGraph[b].size();
2553    }
2554};
2555
2556/* algorithm to allocate regranges:
2557 * from smallest regranges to greatest regranges:
2558 *   choosing free register: from smallest free regranges
2559 *      to greatest regranges:
2560 *         in this same regrange:
2561 *               try to find free regs in regranges
2562 *               try to link free ends of two distinct regranges
2563 */
2564
2565void AsmRegAllocator::colorInterferenceGraph()
2566{
2567    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
2568                    assembler.deviceType);
2569   
2570    for (size_t regType = 0; regType < regTypesNum; regType++)
2571    {
2572        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
2573        InterGraph& interGraph = interGraphs[regType];
2574        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2575        Array<cxuint>& gcMap = graphColorMaps[regType];
2576        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2577        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2578       
2579        const size_t nodesNum = interGraph.size();
2580        gcMap.resize(nodesNum);
2581        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
2582        Array<size_t> sdoCounts(nodesNum);
2583        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
2584       
2585        SDOLDOCompare compare(interGraph, sdoCounts);
2586        std::set<size_t, SDOLDOCompare> nodeSet(compare);
2587        for (size_t i = 0; i < nodesNum; i++)
2588            nodeSet.insert(i);
2589       
2590        cxuint colorsNum = 0;
2591        // firstly, allocate real registers
2592        for (const auto& entry: vregIndexMap)
2593            if (entry.first.regVar == nullptr)
2594                gcMap[entry.second[0]] = colorsNum++;
2595       
2596        for (size_t colored = 0; colored < nodesNum; colored++)
2597        {
2598            size_t node = *nodeSet.begin();
2599            if (gcMap[node] != UINT_MAX)
2600                continue; // already colored
2601            size_t color = 0;
2602            std::vector<size_t> equalNodes;
2603            equalNodes.push_back(node); // only one node, if equalSet not found
2604            auto equalSetMapIt = equalSetMap.find(node);
2605            if (equalSetMapIt != equalSetMap.end())
2606                // found, get equal set from equalSetList
2607                equalNodes = equalSetList[equalSetMapIt->second];
2608           
2609            for (color = 0; color <= colorsNum; color++)
2610            {
2611                // find first usable color
2612                bool thisSame = false;
2613                for (size_t nb: interGraph[node])
2614                    if (gcMap[nb] == color)
2615                    {
2616                        thisSame = true;
2617                        break;
2618                    }
2619                if (!thisSame)
2620                    break;
2621            }
2622            if (color==colorsNum) // add new color if needed
2623            {
2624                if (colorsNum >= maxColorsNum)
2625                    throw AsmException("Too many register is needed");
2626                colorsNum++;
2627            }
2628           
2629            for (size_t nextNode: equalNodes)
2630                gcMap[nextNode] = color;
2631            // update SDO for node
2632            bool colorExists = false;
2633            for (size_t node: equalNodes)
2634            {
2635                for (size_t nb: interGraph[node])
2636                    if (gcMap[nb] == color)
2637                    {
2638                        colorExists = true;
2639                        break;
2640                    }
2641                if (!colorExists)
2642                    sdoCounts[node]++;
2643            }
2644            // update SDO for neighbors
2645            for (size_t node: equalNodes)
2646                for (size_t nb: interGraph[node])
2647                {
2648                    colorExists = false;
2649                    for (size_t nb2: interGraph[nb])
2650                        if (gcMap[nb2] == color)
2651                        {
2652                            colorExists = true;
2653                            break;
2654                        }
2655                    if (!colorExists)
2656                    {
2657                        if (gcMap[nb] == UINT_MAX)
2658                            nodeSet.erase(nb);  // before update we erase from nodeSet
2659                        sdoCounts[nb]++;
2660                        if (gcMap[nb] == UINT_MAX)
2661                            nodeSet.insert(nb); // after update, insert again
2662                    }
2663                }
2664           
2665            for (size_t nextNode: equalNodes)
2666                gcMap[nextNode] = color;
2667        }
2668    }
2669}
2670
2671void AsmRegAllocator::allocateRegisters(cxuint sectionId)
2672{
2673    // before any operation, clear all
2674    codeBlocks.clear();
2675    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
2676    {
2677        vregIndexMaps[i].clear();
2678        interGraphs[i].clear();
2679        linearDepMaps[i].clear();
2680        equalToDepMaps[i].clear();
2681        graphColorMaps[i].clear();
2682        equalSetMaps[i].clear();
2683        equalSetLists[i].clear();
2684    }
2685    ssaReplacesMap.clear();
2686    cxuint maxRegs[MAX_REGTYPES_NUM];
2687    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
2688   
2689    // set up
2690    const AsmSection& section = assembler.sections[sectionId];
2691    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
2692    createSSAData(*section.usageHandler);
2693    applySSAReplaces();
2694    createInterferenceGraph(*section.usageHandler);
2695    colorInterferenceGraph();
2696}
Note: See TracBrowser for help on using the repository browser.